論文の概要: Dual Lagrangian Learning for Conic Optimization
- arxiv url: http://arxiv.org/abs/2402.03086v1
- Date: Mon, 5 Feb 2024 15:14:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 15:31:42.601418
- Title: Dual Lagrangian Learning for Conic Optimization
- Title(参考訳): コーニック最適化のためのデュアルラグランジアン学習
- Authors: Mathieu Tanneau, Pascal Van Hentenryck
- Abstract要約: 本稿では、コニック双対性理論とMLモデルの表現力を組み合わせた原則学習手法であるDual Lagrangian Learning(DLL)を提案する。
円錐双対性を利用して双対実現可能な解を提供し、したがってパラメトリック線型および非線形円錐最適化問題に対して有効なラグランジアン双対境界を与える。
- 参考スコア(独自算出の注目度): 21.272785888296088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents Dual Lagrangian Learning (DLL), a principled learning
methodology that combines conic duality theory with the representation power of
ML models. DLL leverages conic duality to provide dual-feasible solutions, and
therefore valid Lagrangian dual bounds, for parametric linear and nonlinear
conic optimization problems. The paper introduces differentiable conic
projection layers, a systematic dual completion procedure, and a
self-supervised learning framework. The effectiveness of DLL is demonstrated on
linear and nonlinear parametric optimization problems for which DLL provides
valid dual bounds within 0.5% of optimality.
- Abstract(参考訳): 本稿では、コニック双対性理論とMLモデルの表現力を組み合わせた原則学習手法であるDual Lagrangian Learning(DLL)を提案する。
DLLは円錐双対性を利用して双対実現可能な解を提供し、したがってパラメトリック線型および非線形円錐最適化問題に対して有効なラグランジュ双対境界を与える。
本稿では,異なる円錐投影層,系統的な二重補完手順,自己教師型学習フレームワークを紹介する。
DLLの有効性は、線形および非線形パラメトリック最適化問題において示され、DLLは最適度の0.5%以内で有効な双対境界を提供する。
関連論文リスト
- Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - Double Duality: Variational Primal-Dual Policy Optimization for
Constrained Reinforcement Learning [132.7040981721302]
本研究では,訪問尺度の凸関数を最小化することを目的として,制約付き凸決定プロセス(MDP)について検討する。
制約付き凸MDPの設計アルゴリズムは、大きな状態空間を扱うなど、いくつかの課題に直面している。
論文 参考訳(メタデータ) (2024-02-16T16:35:18Z) - Dual Interior-Point Optimization Learning [18.006916033168494]
DIPLとDSLは、有界変数を持つパラメトリック線形プログラムの二重実現可能な解を学ぶ。
それらは大規模最適潮流問題に対する高忠実度二重実現可能な解を生成する。
論文 参考訳(メタデータ) (2024-02-04T20:06:20Z) - Toward Rapid, Optimal, and Feasible Power Dispatch through Generalized
Neural Mapping [0.0]
パワーディスパッチ問題を解決するための学習ベースアプローチとして LOOP-LC 2.0 を提案する。
LOOP-LC 2.0フレームワークの顕著な利点は、ソリューションのほぼ最適性と厳密な実現性を保証する能力である。
本稿では, LOOP-LC 2.0法の有効性を, 学習速度, 計算時間, 最適性, ソリューション実現可能性の観点から示す。
論文 参考訳(メタデータ) (2023-11-08T17:02:53Z) - Hierarchical Optimization-Derived Learning [58.69200830655009]
我々は,最適化モデル構築の本質的な動作とそれに対応する学習過程を同時に研究するために,階層型ODL(Hyerarchical ODL)という新しいフレームワークを構築した。
これは、最適化と学習という2つの結合されたODLコンポーネントに対する最初の理論的保証である。
論文 参考訳(メタデータ) (2023-02-11T03:35:13Z) - Lagrangian Method for Q-Function Learning (with Applications to Machine
Translation) [0.0]
この論文は、ラグランジアンがその非線形性にもかかわらず強い双対性を持ち、これはQ-函数学習への一般的なラグランジアン法への道を開くことを示している。
論文 参考訳(メタデータ) (2022-07-22T15:57:52Z) - Meta-Learning with Neural Tangent Kernels [58.06951624702086]
メタモデルのニューラルタンジェントカーネル(NTK)によって誘導される再生カーネルヒルベルト空間(RKHS)における最初のメタラーニングパラダイムを提案する。
このパラダイムでは,MAMLフレームワークのように,最適な反復内ループ適応を必要としない2つのメタ学習アルゴリズムを導入する。
本研究の目的は,1) 適応をRKHSの高速適応正則化器に置き換えること,2) NTK理論に基づいて解析的に適応を解くことである。
論文 参考訳(メタデータ) (2021-02-07T20:53:23Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。