論文の概要: Dual Interior Point Optimization Learning
- arxiv url: http://arxiv.org/abs/2402.02596v2
- Date: Mon, 10 Feb 2025 22:56:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:03:23.168255
- Title: Dual Interior Point Optimization Learning
- Title(参考訳): デュアルインテリアポイント最適化学習
- Authors: Michael Klamkin, Mathieu Tanneau, Pascal Van Hentenryck,
- Abstract要約: 本稿では,予備的アプローチを補完し,品質保証を提供する2つの実現可能な解の学習方法について検討する。
提案した双対完備化手法は、双対問題の構造を活用できない最適化プロキシの学習方法よりも優れている。
- 参考スコア(独自算出の注目度): 16.02181642119643
- License:
- Abstract: In many practical applications of constrained optimization, scale and solving time limits make traditional optimization solvers prohibitively slow. Thus, the research question of how to design optimization proxies -- machine learning models that produce high-quality solutions -- has recently received significant attention. Orthogonal to this research thread which focuses on learning primal solutions, this paper studies how to learn dual feasible solutions that complement primal approaches and provide quality guarantees. The paper makes two distinct contributions. First, to train dual linear optimization proxies, the paper proposes a smoothed self-supervised loss function that augments the objective function with a dual penalty term. Second, the paper proposes a novel dual completion strategy that guarantees dual feasibility by solving a convex optimization problem. Moreover, the paper derives closed-form solutions to this completion optimization for several classes of dual penalties, eliminating the need for computationally-heavy implicit layers. Numerical results are presented on large linear optimization problems and demonstrate the effectiveness of the proposed approach. The proposed dual completion outperforms methods for learning optimization proxies which do not exploit the structure of the dual problem. Compared to commercial optimization solvers, the learned dual proxies achieve optimality gaps below $1\%$ and several orders of magnitude speedups.
- Abstract(参考訳): 制約付き最適化、スケール、解時間制限の多くの実践的応用において、従来の最適化解法は明らかに遅くなる。
このようにして、高品質なソリューションを生成する機械学習モデルである最適化プロキシをどのように設計するかという研究課題が、最近大きな注目を集めている。
予備解の学習に焦点をあてた本研究のスレッドに対して,本研究では,予備解を補完し,品質保証を提供する二重実現可能解の学習方法について検討する。
論文は2つの異なる貢献をしている。
まず, 2次線形最適化プロキシを訓練するために, 目的関数を2次ペナルティ項で拡張するスムーズな自己教師付き損失関数を提案する。
第二に,凸最適化問題を解くことにより,両実現性を保証する新しい二重補完方式を提案する。
さらに, 計算量の多い暗黙の層の必要性を排除し, 双対ペナルティのいくつかのクラスに対して, この完全最適化のための閉形式解を導出する。
大規模線形最適化問題に対して数値計算を行い,提案手法の有効性を実証した。
提案した双対完備化手法は、双対問題の構造を活用できない最適化プロキシの学習方法よりも優れている。
商用最適化の解法と比較すると、学習された双対プロキシは、$1\%以下の最適性ギャップと数桁のスピードアップを達成する。
関連論文リスト
- A-FedPD: Aligning Dual-Drift is All Federated Primal-Dual Learning Needs [57.35402286842029]
本稿では,グローバルクライアントとローカルクライアントの仮想二重配向を構成する新しいアラインドデュアルデュアル(A-FedPD)手法を提案する。
本稿では,A-FedPD方式の非集中型セキュリティコンセンサスに対する効率を包括的に分析する。
論文 参考訳(メタデータ) (2024-09-27T17:00:32Z) - One-Shot Safety Alignment for Large Language Models via Optimal Dualization [64.52223677468861]
本稿では,制約付きアライメントを等価な非制約アライメント問題に還元する双対化の観点を提案する。
我々は、閉形式を持つ滑らかで凸な双対函数を事前に最適化する。
我々の戦略は、モデルベースと嗜好ベースの設定における2つの実用的なアルゴリズムに導かれる。
論文 参考訳(メタデータ) (2024-05-29T22:12:52Z) - Two-Stage ML-Guided Decision Rules for Sequential Decision Making under Uncertainty [55.06411438416805]
SDMU (Sequential Decision Making Under Uncertainty) は、エネルギー、金融、サプライチェーンといった多くの領域において、ユビキタスである。
いくつかのSDMUは、自然にマルチステージ問題(MSP)としてモデル化されているが、結果として得られる最適化は、計算の観点からは明らかに困難である。
本稿では,2段階の一般決定規則(TS-GDR)を導入し,線形関数を超えて政策空間を一般化する手法を提案する。
TS-GDRの有効性は、TS-LDR(Two-Stage Deep Decision Rules)と呼ばれるディープリカレントニューラルネットワークを用いたインスタンス化によって実証される。
論文 参考訳(メタデータ) (2024-05-23T18:19:47Z) - Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - Dual Lagrangian Learning for Conic Optimization [18.006916033168494]
本稿では,ラグランジアン双対性に基づく体系的二重補完手法,微分可能な円錐射影層,および自己教師型学習フレームワークを提案する。
また、円錐問題の幅広いクラスに対する閉形式二重完備式も提供し、コストのかかる暗黙の層の必要性を排除している。
提案手法は、最先端の学習法よりも優れており、平均0.5%未満の最適ギャップを有する商用インテリアポイントソルバの1000倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-02-05T15:14:08Z) - Meta-Learning Adversarial Bandit Algorithms [55.72892209124227]
我々は,バンディットフィードバックを用いたオンラインメタラーニングについて研究する。
我々は自己協和障壁正規化器を用いてオンラインミラー降下一般化(OMD)をチューニングすることを学ぶ。
論文 参考訳(メタデータ) (2023-07-05T13:52:10Z) - Learning-Assisted Algorithm Unrolling for Online Optimization with
Budget Constraints [27.84415856657607]
我々はLAAU(Learning-Assisted Algorithm Unrolling)と呼ばれる新しい機械学習支援アンローリング手法を提案する。
バックプロパゲーションによる効率的なトレーニングには、時間とともに決定パイプラインの勾配を導出します。
また、トレーニングデータがオフラインで利用可能で、オンラインで収集できる場合の2つのケースの平均的なコスト境界も提供します。
論文 参考訳(メタデータ) (2022-12-03T20:56:29Z) - Scaling the Convex Barrier with Sparse Dual Algorithms [141.4085318878354]
本稿では,ニューラルネットワークバウンダリングのための2つの新しい2重アルゴリズムを提案する。
どちらの方法も新しい緩和の強さを回復する: 厳密さと線形分離オラクル。
実行時間のほんの一部で、既製のソルバよりも優れた境界を得ることができます。
論文 参考訳(メタデータ) (2021-01-14T19:45:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。