論文の概要: Learning Constrained Optimization with Deep Augmented Lagrangian Methods
- arxiv url: http://arxiv.org/abs/2403.03454v1
- Date: Wed, 6 Mar 2024 04:43:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 16:15:15.834558
- Title: Learning Constrained Optimization with Deep Augmented Lagrangian Methods
- Title(参考訳): ディープ拡張ラグランジアン法による学習制約付き最適化
- Authors: James Kotary and Ferdinando Fioretto
- Abstract要約: 機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
- 参考スコア(独自算出の注目度): 60.94111369773497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning to Optimize (LtO) is a problem setting in which a machine learning
(ML) model is trained to emulate a constrained optimization solver. Learning to
produce optimal and feasible solutions subject to complex constraints is a
difficult task, but is often made possible by restricting the input space to a
limited distribution of related problems. Most LtO methods focus on directly
learning solutions to the primal problem, and applying correction schemes or
loss function penalties to encourage feasibility. This paper proposes an
alternative approach, in which the ML model is trained instead to predict dual
solution estimates directly, from which primal estimates are constructed to
form dual-feasible solution pairs. This enables an end-to-end training scheme
is which the dual objective is maximized as a loss function, and solution
estimates iterate toward primal feasibility, emulating a Dual Ascent method.
First it is shown that the poor convergence properties of classical Dual Ascent
are reflected in poor convergence of the proposed training scheme. Then, by
incorporating techniques from practical Augmented Lagrangian methods, we show
how the training scheme can be improved to learn highly accurate constrained
optimization solvers, for both convex and nonconvex problems.
- Abstract(参考訳): Learning to Optimize (LtO)は、機械学習(ML)モデルを訓練して制約付き最適化解法をエミュレートする問題設定である。
複雑な制約の下で最適かつ実現可能な解を作るための学習は難しい作業であるが、しばしば入力空間を関連する問題の限られた分布に制限することで可能となる。
ほとんどのLtO法は、原始問題に対する解を直接学習し、実現可能性を高めるために補正スキームや損失関数のペナルティを適用することに重点を置いている。
本稿では, mlモデルを用いて, 直接, 双対解推定を予測し, そこから双対解対を形成する方法を提案する。
これにより、双対目的を損失関数として最大化するエンドツーエンドのトレーニングスキームが実現でき、解は双対アセント法をエミュレートし、原始的実現性に向けて反復する。
まず, 古典的二重上昇の収束特性が, 提案手法の収束性に反映されることが示されている。
次に,実用的な拡張ラグランジアン手法による手法を取り入れることで,凸問題と非凸問題の両方に対して,高精度な制約付き最適化解法を学ぶためのトレーニングスキームの改善法を示す。
関連論文リスト
- Learning to Optimize for Mixed-Integer Non-linear Programming [20.469394148261838]
混合整数非NLPプログラム(MINLP)はエネルギーシステムや輸送など様々な領域で発生するが、解決は困難である。
機械学習の最近の進歩は、最適化のための学習として知られる領域において、顕著な成功をもたらしている。
勾配を保ちながら整数出力を生成する2つの異なる補正層を提案する。
論文 参考訳(メタデータ) (2024-10-14T20:14:39Z) - Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - One-Shot Safety Alignment for Large Language Models via Optimal Dualization [64.52223677468861]
本稿では,制約付きアライメントを等価な非制約アライメント問題に還元する双対化の観点を提案する。
我々は、閉形式を持つ滑らかで凸な双対函数を事前に最適化する。
我々の戦略は、モデルベースと嗜好ベースの設定における2つの実用的なアルゴリズムに導かれる。
論文 参考訳(メタデータ) (2024-05-29T22:12:52Z) - SOMTP: Self-Supervised Learning-Based Optimizer for MPC-Based Safe Trajectory Planning Problems in Robotics [13.129654942805846]
モデル予測制御(MP)に基づく軌道計画が広く使われており、制御バリア(CBF)はその制約を改善することができる。
本稿では,CBF-MPC軌道計画のための自己教師付き学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-15T09:38:52Z) - Double Duality: Variational Primal-Dual Policy Optimization for
Constrained Reinforcement Learning [132.7040981721302]
本研究では,訪問尺度の凸関数を最小化することを目的として,制約付き凸決定プロセス(MDP)について検討する。
制約付き凸MDPの設計アルゴリズムは、大きな状態空間を扱うなど、いくつかの課題に直面している。
論文 参考訳(メタデータ) (2024-02-16T16:35:18Z) - Toward Rapid, Optimal, and Feasible Power Dispatch through Generalized
Neural Mapping [0.0]
パワーディスパッチ問題を解決するための学習ベースアプローチとして LOOP-LC 2.0 を提案する。
LOOP-LC 2.0フレームワークの顕著な利点は、ソリューションのほぼ最適性と厳密な実現性を保証する能力である。
本稿では, LOOP-LC 2.0法の有効性を, 学習速度, 計算時間, 最適性, ソリューション実現可能性の観点から示す。
論文 参考訳(メタデータ) (2023-11-08T17:02:53Z) - Self-Supervised Primal-Dual Learning for Constrained Optimization [19.965556179096385]
本稿では,制約付き最適化問題の最適解を直接近似する機械学習モデルの訓練方法を検討する。
プリマル・デュアル・ラーニング(PDL, Primal-Dual Learning)は,事前解決した一連のインスタンスや,学習と推論のための最適化解法を必要としない自己指導型トレーニング手法である。
論文 参考訳(メタデータ) (2022-08-18T20:07:10Z) - On Constraints in First-Order Optimization: A View from Non-Smooth
Dynamical Systems [99.59934203759754]
本稿では,スムーズな制約付き最適化のための一階法について紹介する。
提案手法の2つの特徴は、実現可能な集合全体の投影や最適化が避けられることである。
結果として得られるアルゴリズムの手順は、制約が非線形であっても簡単に実装できる。
論文 参考訳(メタデータ) (2021-07-17T11:45:13Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。