論文の概要: Principled data augmentation for learning to solve quadratic programming problems
- arxiv url: http://arxiv.org/abs/2506.01728v1
- Date: Mon, 02 Jun 2025 14:40:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.492918
- Title: Principled data augmentation for learning to solve quadratic programming problems
- Title(参考訳): 2次プログラミング問題の解法を学ぶための原理的データ拡張
- Authors: Chendi Qian, Christopher Morris,
- Abstract要約: 線形プログラム(LP)や二次プログラム(QP)のためのL2O(Learning-to-Optimize Method)が注目を集めている。
MPNNはそのような最適化問題を解決するために軽量でデータ駆動のプロキシを約束する。
しかし、堅牢なMPNNはデータスカース設定では依然として困難である。
この研究は、MPNNを通じてQP用に調整されたデータ拡張に対する原則的なアプローチを導入している。
- 参考スコア(独自算出の注目度): 5.966097889241178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Linear and quadratic optimization are crucial in numerous real-world applications, from training machine learning models to integer-linear optimization. Recently, learning-to-optimize methods (L2O) for linear (LPs) or quadratic programs (QPs) using message-passing graph neural networks (MPNNs) have gained traction, promising lightweight, data-driven proxies for solving such optimization problems. For example, they replace the costly computation of strong branching scores in branch-and-bound solvers, requiring solving many such optimization problems. However, robust L2O MPNNs remain challenging in data-scarce settings, especially when addressing complex optimization problems such as QPs. This work introduces a principled approach to data augmentation tailored for QPs via MPNNs. Our method leverages theoretically justified data augmentation techniques to generate diverse yet optimality-preserving instances. Furthermore, we integrate these augmentations into a self-supervised learning framework based on contrastive learning, thereby pretraining MPNNs for enhanced performance on L2O tasks. Extensive experiments demonstrate that our approach improves generalization in supervised scenarios and facilitates effective transfer learning to related optimization problems.
- Abstract(参考訳): 線形および二次最適化は、機械学習モデルのトレーニングから整数線形最適化まで、多くの実世界のアプリケーションにおいて不可欠である。
近年,メッセージパスグラフニューラルネットワーク(MPNN)を用いた線形プログラム(LP)や二次プログラム(QP)のためのL2O(Learning-to-Optimize Method)が,そのような最適化問題を解決するための軽量なデータ駆動プロキシとして注目を集めている。
例えば、ブランチ・アンド・バウンドの解法において、強い分岐スコアのコストのかかる計算を置き換え、そのような最適化問題の多くを解く必要がある。
しかし、特にQPのような複雑な最適化問題に対処する場合、ロバストなL2O MPNNはデータスカース設定では依然として困難である。
この研究は、MPNNを通じてQP用に調整されたデータ拡張に対する原則的なアプローチを導入している。
提案手法は理論的に正当化されたデータ拡張手法を利用して,多種多様な最適性保存インスタンスを生成する。
さらに、これらの強化をコントラスト学習に基づく自己教師付き学習フレームワークに統合し、L2Oタスクの性能向上のためにMPNNを事前学習する。
大規模な実験により,本手法は教師付きシナリオの一般化を向上し,関連する最適化問題に対する効果的な伝達学習を容易にすることが実証された。
関連論文リスト
- Efficient End-to-End Learning for Decision-Making: A Meta-Optimization Approach [5.84228364962637]
本稿では,最適化問題を近似する効率的なアルゴリズムを学習するメタ最適化手法を提案する。
我々は,学習方法の指数収束,近似保証,一般化境界を証明した。
この手法は計算効率に優れ、高品質な近似を高速に生成し、既存の手法と比較して問題の大きさでスケールする。
論文 参考訳(メタデータ) (2025-05-16T15:27:50Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Teaching Networks to Solve Optimization Problems [13.803078209630444]
反復解法をトレーニング可能なパラメトリック集合関数に置き換えることを提案する。
このようなパラメトリックな(集合)関数を学習することで、様々な古典的最適化問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-02-08T19:13:13Z) - Learning to Optimize: A Primer and A Benchmark [94.29436694770953]
最適化への学習(L2O)は、機械学習を活用して最適化方法を開発する新しいアプローチです。
この記事では、継続的最適化のためのL2Oの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2021-03-23T20:46:20Z) - Learning to Optimize Under Constraints with Unsupervised Deep Neural
Networks [0.0]
機械学習(ML)手法を提案し,汎用的制約付き連続最適化問題の解法を学習する。
本稿では,制約付き最適化問題をリアルタイムに解くための教師なしディープラーニング(DL)ソリューションを提案する。
論文 参考訳(メタデータ) (2021-01-04T02:58:37Z) - Optimization-driven Machine Learning for Intelligent Reflecting Surfaces
Assisted Wireless Networks [82.33619654835348]
インテリジェントサーフェス(IRS)は、個々の散乱素子の位相シフトを制御して無線チャネルを再形成するために用いられる。
散乱素子の規模が大きいため、受動ビームフォーミングは一般に高い計算複雑性によって挑戦される。
本稿では、IRS支援無線ネットワークの性能向上のための機械学習(ML)アプローチに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-29T08:39:43Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z) - Unsupervised Deep Learning for Optimizing Wireless Systems with
Instantaneous and Statistic Constraints [29.823814915538463]
我々は、教師なしのディープラーニングを用いて、瞬時的制約と統計的制約の両方で、双方の問題を解決する統一的な枠組みを確立する。
教師なし学習は、最適政策の違反確率と近似精度の観点から教師あり学習より優れていることを示す。
論文 参考訳(メタデータ) (2020-05-30T13:37:14Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。