論文の概要: A proximal augmented Lagrangian method for nonconvex optimization with equality and inequality constraints
- arxiv url: http://arxiv.org/abs/2509.02894v1
- Date: Tue, 02 Sep 2025 23:39:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.363157
- Title: A proximal augmented Lagrangian method for nonconvex optimization with equality and inequality constraints
- Title(参考訳): 等式制約と不等式制約を持つ非凸最適化のための近似拡張ラグランジアン法
- Authors: Adeyemi D. Adeoye, Puya Latafat, Alberto Bemporad,
- Abstract要約: 本研究では,非構造最適化問題に対する不正確な近似拡張ラグランジアン法(P-ALM)を提案する。
提案手法は,実装が容易な変分パラメータを特徴とするが,適応的な調整も可能である。
- 参考スコア(独自算出の注目度): 6.423239719448169
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an inexact proximal augmented Lagrangian method (P-ALM) for nonconvex structured optimization problems. The proposed method features an easily implementable rule not only for updating the penalty parameters, but also for adaptively tuning the proximal term. It allows the penalty parameter to grow rapidly in the early stages to speed up progress, while ameliorating the issue of ill-conditioning in later iterations, a well-known drawback of the traditional approach of linearly increasing the penalty parameters. A key element in our analysis lies in the observation that the augmented Lagrangian can be controlled effectively along the iterates, provided an initial feasible point is available. Our analysis, while simple, provides a new theoretical perspective about P-ALM and, as a by-product, results in similar convergence properties for its non-proximal variant, the classical augmented Lagrangian method (ALM). Numerical experiments, including convex and nonconvex problem instances, demonstrate the effectiveness of our approach.
- Abstract(参考訳): 非凸構造最適化問題に対する不正確な近似拡張ラグランジアン法(P-ALM)を提案する。
提案手法は,ペナルティパラメータを更新するだけでなく,近似項を適応的に調整するためにも容易に実装可能な規則を特徴とする。
これは、ペナルティパラメータを早期に急速に増加させ、進行を早めると同時に、後続の繰り返しにおける不調和の問題を改善することを可能にし、ペナルティパラメータを線形に増加させる従来のアプローチの欠点としてよく知られている。
我々の分析における重要な要素は、拡張ラグランジアンがイテレートに沿って効果的に制御できるという観察にある。
我々の分析は単純ではあるが、P-ALMに関する新しい理論的視点を提供し、副産物として、その非近位変種である古典的拡張ラグランジアン法(ALM)に類似した収束性をもたらす。
凸問題と非凸問題を含む数値実験は,本手法の有効性を実証する。
関連論文リスト
- Online Convex Optimization and Integral Quadratic Constraints: An automated approach to regret analysis [0.0]
我々は,厳密な凸とリプシッツ・スムース目的に対する一階制約付きオンライン凸最適化アルゴリズムの動的後悔を分析した。
我々は、オンラインアルゴリズムに対する後悔の保証を提供する半確定的なプログラムを導出する。
論文 参考訳(メタデータ) (2025-03-30T21:48:11Z) - Moreau Envelope ADMM for Decentralized Weakly Convex Optimization [55.2289666758254]
本稿では,分散最適化のための乗算器の交互方向法(ADMM)の近位変種を提案する。
数値実験の結果,本手法は広く用いられている手法よりも高速かつ堅牢であることが示された。
論文 参考訳(メタデータ) (2023-08-31T14:16:30Z) - Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - Learning to Optimize with Stochastic Dominance Constraints [103.26714928625582]
本稿では,不確実量を比較する問題に対して,単純かつ効率的なアプローチを開発する。
我々はラグランジアンの内部最適化をサロゲート近似の学習問題として再考した。
提案したライト-SDは、ファイナンスからサプライチェーン管理に至るまで、いくつかの代表的な問題において優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-14T21:54:31Z) - Faster Algorithm and Sharper Analysis for Constrained Markov Decision
Process [56.55075925645864]
制約付き意思決定プロセス (CMDP) の問題点について検討し, エージェントは, 複数の制約を条件として, 期待される累積割引報酬を最大化することを目的とする。
新しいユーティリティ・デュアル凸法は、正規化ポリシー、双対正則化、ネステロフの勾配降下双対という3つの要素の新たな統合によって提案される。
これは、凸制約を受ける全ての複雑性最適化に対して、非凸CMDP問題が$mathcal O (1/epsilon)$の低い境界に達する最初の実演である。
論文 参考訳(メタデータ) (2021-10-20T02:57:21Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - A Stochastic Composite Augmented Lagrangian Method For Reinforcement
Learning [9.204659134755795]
深層強化学習のための線形プログラミング(LP)の定式化について検討する。
拡張ラグランジアン法は、LPの解法において二重サンプリング障害に悩まされる。
深層パラメタライズされたラグランジアン法を提案する。
論文 参考訳(メタデータ) (2021-05-20T13:08:06Z) - Accelerated Gradient Methods for Sparse Statistical Learning with
Nonconvex Penalties [10.913266721195916]
ネステロフの加速シミュレーション(AG)は、対物関数を2つ、凸損失とペナルティ関数の2つに最適化する一般的な手法である。
最近のNesterov's AGの提案は一般化しているが、統計学習問題には適用されていない。
本稿では,非AGアルゴリズムを高次元かつスパースな統計的学習問題に適用することを検討する。
論文 参考訳(メタデータ) (2020-09-22T15:37:09Z) - IDEAL: Inexact DEcentralized Accelerated Augmented Lagrangian Method [64.15649345392822]
本稿では,局所関数が滑らかで凸な分散最適化環境下での原始的手法設計のためのフレームワークを提案する。
提案手法は,加速ラグランジアン法により誘導されるサブプロブレム列を概ね解いたものである。
加速度勾配降下と組み合わせることで,収束速度が最適で,最近導出された下界と一致した新しい原始アルゴリズムが得られる。
論文 参考訳(メタデータ) (2020-06-11T18:49:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。