論文の概要: Accelerated Primal-Dual Methods for Convex-Strongly-Concave Saddle Point
Problems
- arxiv url: http://arxiv.org/abs/2209.04604v2
- Date: Thu, 18 May 2023 05:37:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 20:49:31.738716
- Title: Accelerated Primal-Dual Methods for Convex-Strongly-Concave Saddle Point
Problems
- Title(参考訳): 凸強凸サドル点問題の加速原始双対法
- Authors: Mohammad Khalafi, Digvijay Boob
- Abstract要約: 本研究では,主関数の線形近似を用いたサドル点問題(SPP)に対するPD法について検討した。
凸強凹 SPP に対して,LPD 法は主関数のリプシッツ定数に最適値に依存することが観察された。
この問題を解決するために, 加速度勾配Descent とLPD法を組み合わせることで, 単ループ線形化Primal-Dual (ALPD) 法を実現する。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate a primal-dual (PD) method for the saddle point problem (SPP)
that uses a linear approximation of the primal function instead of the standard
proximal step, resulting in a linearized PD (LPD) method. For convex-strongly
concave SPP, we observe that the LPD method has a suboptimal dependence on the
Lipschitz constant of the primal function. To fix this issue, we combine
features of Accelerated Gradient Descent with the LPD method resulting in a
single-loop Accelerated Linearized Primal-Dual (ALPD) method. ALPD method
achieves the optimal gradient complexity when the SPP has a semi-linear
coupling function. We also present an inexact ALPD method for SPPs with a
general nonlinear coupling function that maintains the optimal gradient
evaluations of the primal parts and significantly improves the gradient
evaluations of the coupling term compared to the ALPD method. We verify our
findings with numerical experiments.
- Abstract(参考訳): 本研究では,標準近位ステップの代わりに一次関数の線形近似を用いたサドル点問題 (SPP) に対する原始双対 (PD) 法を検討した結果,線形化 PD (LPD) 法が得られた。
凸強凹 SPP に対して,LPD 法は主関数のリプシッツ定数に最適値に依存することが観察された。
この問題を解決するために, 加速度勾配Descent とLPD法を組み合わせることで, 単ループ線形化Primal-Dual (ALPD) 法を実現する。
ALPD法は、SPPが半線形結合関数を持つ場合、最適勾配複雑性を実現する。
また,本手法は,主成分の最適勾配評価を保ち,alpd法と比較して結合項の勾配評価を著しく改善する汎用非線形カップリング関数を有するsps用不適合alpd法を提案する。
我々は数値実験でこの結果を検証する。
関連論文リスト
- A Natural Primal-Dual Hybrid Gradient Method for Adversarial Neural Network Training on Solving Partial Differential Equations [9.588717577573684]
偏微分方程式(PDE)を解くためのスケーラブルな事前条件付き原始ハイブリッド勾配アルゴリズムを提案する。
本稿では,提案手法の性能を,一般的なディープラーニングアルゴリズムと比較する。
その結果,提案手法は効率的かつ堅牢に動作し,安定に収束することが示唆された。
論文 参考訳(メタデータ) (2024-11-09T20:39:10Z) - Deterministic Policy Gradient Primal-Dual Methods for Continuous-Space Constrained MDPs [82.34567890576423]
我々は,非漸近収束を伴う最適決定主義政策を求めるための決定主義的政策勾配原始双対法を開発した。
D-PGPDの一次-双対反復は、最適正則化原始-双対にサブ線形速度で収束することが証明された。
我々の知る限り、これは連続空間制約型MDPに対する決定論的ポリシー探索法を提案する最初の研究であると思われる。
論文 参考訳(メタデータ) (2024-08-19T14:11:04Z) - Differentially Private Optimization with Sparse Gradients [60.853074897282625]
微分プライベート(DP)最適化問題を個人勾配の空間性の下で検討する。
これに基づいて、スパース勾配の凸最適化にほぼ最適な速度で純粋および近似DPアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-04-16T20:01:10Z) - Adaptive Proximal Gradient Method for Convex Optimization [18.681222155879656]
凸最適化における2つの基本的な一階法、すなわち勾配降下法(GD)と近位勾配法(ProxGD)について検討する。
我々の焦点は、スムーズな関数の局所曲率情報を活用することによって、これらのアルゴリズムを完全に適応させることである。
本稿では,GD と ProxGD の適応バージョンを提案する。
論文 参考訳(メタデータ) (2023-08-04T11:37:08Z) - Last-Iterate Convergent Policy Gradient Primal-Dual Methods for
Constrained MDPs [107.28031292946774]
無限水平割引マルコフ決定過程(拘束型MDP)の最適ポリシの計算問題について検討する。
我々は, 最適制約付きポリシーに反復的に対応し, 非漸近収束性を持つ2つの単一スケールポリシーに基づく原始双対アルゴリズムを開発した。
我々の知る限り、この研究は制約付きMDPにおける単一時間スケールアルゴリズムの非漸近的な最後の収束結果となる。
論文 参考訳(メタデータ) (2023-06-20T17:27:31Z) - Min-Max Optimization Made Simple: Approximating the Proximal Point
Method via Contraction Maps [77.8999425439444]
本稿では,凸/凹凸 min-max 問題に対して,ほぼ最適収束率を許容する一階法を提案する。
我々の研究は、近点法の更新規則を精度良く近似できるという事実に基づいている。
論文 参考訳(メタデータ) (2023-01-10T12:18:47Z) - Linear Convergence of Natural Policy Gradient Methods with Log-Linear
Policies [115.86431674214282]
我々は、無限水平割引マルコフ決定過程を考察し、自然政策勾配(NPG)とQ-NPG法の収束率を対数線形ポリシークラスで検討する。
両手法が線形収束率と $mathcalO (1/epsilon2)$サンプル複雑度を, 単純で非適応的な幾何的に増加するステップサイズを用いて達成できることを示す。
論文 参考訳(メタデータ) (2022-10-04T06:17:52Z) - Proximal Gradient Temporal Difference Learning: Stable Reinforcement
Learning with Polynomial Sample Complexity [40.73281056650241]
本稿では,真の勾配時間差学習アルゴリズムを設計・解析する原理的な方法として,近位勾配時間差学習を導入する。
本研究では, 従来の目的関数からではなく, 主目的関数から始めることによって, 勾配性TD強化学習法を公式に導出する方法を示す。
論文 参考訳(メタデータ) (2020-06-06T21:04:21Z) - Complexity Guarantees for Polyak Steps with Momentum [76.97851351276165]
そこでは,この知識を最適な値である$f_*$で置き換える。
まず、Polyak ステップによる単純な勾配勾配の古典的な場合よりも若干改善された収束境界を示し、その後、収束保証とともに、Polyak ステップと運動量を持つ加速勾配法を導出する。
論文 参考訳(メタデータ) (2020-02-03T17:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。