論文の概要: Nesterov Meets Optimism: Rate-Optimal Separable Minimax Optimization
- arxiv url: http://arxiv.org/abs/2210.17550v2
- Date: Mon, 14 Aug 2023 18:18:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 17:37:21.656409
- Title: Nesterov Meets Optimism: Rate-Optimal Separable Minimax Optimization
- Title(参考訳): Nesterovがオプティミズムと出会う: レート最適の分離可能なミニマックス最適化
- Authors: Chris Junchi Li, Angela Yuan, Gauthier Gidel, Quanquan Gu, Michael I.
Jordan
- Abstract要約: 本稿では,新しい一階最適化アルゴリズムであるAcceleratedGradient-OptimisticGradient (AG-OG) Ascentを提案する。
我々はAG-OGが様々な設定に対して最適収束率(定数まで)を達成することを示す。
アルゴリズムを拡張して設定を拡張し、bi-SC-SCとbi-C-SCの両方で最適な収束率を達成する。
- 参考スコア(独自算出の注目度): 108.35402316802765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new first-order optimization algorithm --
AcceleratedGradient-OptimisticGradient (AG-OG) Descent Ascent -- for separable
convex-concave minimax optimization. The main idea of our algorithm is to
carefully leverage the structure of the minimax problem, performing Nesterov
acceleration on the individual component and optimistic gradient on the
coupling component. Equipped with proper restarting, we show that AG-OG
achieves the optimal convergence rate (up to a constant) for a variety of
settings, including bilinearly coupled strongly convex-strongly concave minimax
optimization (bi-SC-SC), bilinearly coupled convex-strongly concave minimax
optimization (bi-C-SC), and bilinear games. We also extend our algorithm to the
stochastic setting and achieve the optimal convergence rate in both bi-SC-SC
and bi-C-SC settings. AG-OG is the first single-call algorithm with optimal
convergence rates in both deterministic and stochastic settings for bilinearly
coupled minimax optimization problems.
- Abstract(参考訳): 分離可能な凸凸ミニマックス最適化のための新しい一階最適化アルゴリズム(ag-og)を提案する。
提案アルゴリズムの主な考え方は,ミニマックス問題の構造を慎重に利用し,個々の成分に対してネステロフ加速度,結合成分に対する楽観的な勾配を実行することである。
適切な再起動を施したAG-OGは,双線形に結合した強凸凸凸凹極小最適化(bi-SC-SC),双線形に結合した凸凸凹極小最適化(bi-C-SC),双線形ゲームなど,様々な設定に対して最適収束率(定数まで)を達成することを示す。
また,アルゴリズムを確率的設定に拡張し,bi-SC-SCとbi-C-SCの両方で最適収束率を達成する。
AG-OGは、双線形結合ミニマックス最適化問題に対する決定論的および確率的設定の両方において最適な収束率を持つ最初の単一コールアルゴリズムである。
関連論文リスト
- ALEXR: An Optimal Single-Loop Algorithm for Convex Finite-Sum Coupled Compositional Stochastic Optimization [53.14532968909759]
ALEXRと呼ばれる,効率的な単ループプリマルデュアルブロックコーディネートアルゴリズムを提案する。
本研究では, ALEXR の凸面および強凸面の収束速度を滑らか性および非滑らか性条件下で確立する。
本稿では,ALEXRの収束速度が,検討されたcFCCO問題に対する1次ブロック座標アルゴリズムの中で最適であることを示すために,より低い複雑性境界を示す。
論文 参考訳(メタデータ) (2023-12-04T19:00:07Z) - Optimal Guarantees for Algorithmic Reproducibility and Gradient
Complexity in Convex Optimization [55.115992622028685]
以前の研究は、一階法はより良い収束率(漸進収束率)をトレードオフする必要があることを示唆している。
最適複雑性と準最適収束保証の両方を、滑らかな凸最小化と滑らかな凸最小化問題に対して達成できることを実証する。
論文 参考訳(メタデータ) (2023-10-26T19:56:52Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - Near-Optimal Algorithms for Making the Gradient Small in Stochastic
Minimax Optimization [14.719077076351377]
本研究では,スムーズなミニマックス最適化のための準定常点を求める問題について検討する。
Recursive IteratioNRAINと呼ばれる新しいアルゴリズムは凸凹と強凹の両方のケースを実現する。
論文 参考訳(メタデータ) (2022-08-11T16:55:26Z) - Accelerated Algorithms for Constrained Nonconvex-Nonconcave Min-Max Optimization and Comonotone Inclusion [9.551565016483833]
非コンケーブなmin-max最適化問題の構造化クラスであるコモノトンmin-max最適化について検討する。
最初のコントリビューションでは、extra Anchored Gradient (EAG)アルゴリズムを制約付きコモノトン min-max 最適化に拡張する。
第2のコントリビューションでは、FEG(Fast Extra Gradient)アルゴリズムを制約のないmin-max最適化に拡張する。
論文 参考訳(メタデータ) (2022-06-10T17:44:06Z) - Efficiently Escaping Saddle Points in Bilevel Optimization [48.925688192913]
バイレベル最適化は、機械学習における問題の1つだ。
双レベル最適化の最近の進歩は、最初の基本的非適応的多段階解析に収束する。
論文 参考訳(メタデータ) (2022-02-08T07:10:06Z) - Potential Function-based Framework for Making the Gradients Small in
Convex and Min-Max Optimization [14.848525762485872]
勾配を小さくすることは、統一的かつ単純な収束論証を導いた基本的な最適化問題である。
本稿では,勾配を小さくするための標準手法の収束を研究するために,新しいポテンシャル関数ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-28T16:41:00Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Stochastic Coordinate Minimization with Progressive Precision for
Stochastic Convex Optimization [16.0251555430107]
凸最適化のための反復座標最小化(CM)に基づくフレームワークを開発した。
最適精度制御と結果の順序-最適後悔性能を確立する。
提案アルゴリズムは,大規模最適化のためのCMのスケーラビリティと並列性特性を継承し,オンライン実装に適したアルゴリズムである。
論文 参考訳(メタデータ) (2020-03-11T18:42:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。