論文の概要: Competitive Gradient Optimization
- arxiv url: http://arxiv.org/abs/2205.14232v1
- Date: Fri, 27 May 2022 20:58:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 17:51:06.642273
- Title: Competitive Gradient Optimization
- Title(参考訳): 競合勾配最適化
- Authors: Abhijeet Vyas and Kamyar Azizzadenesheli
- Abstract要約: ゼロサムゲームにおける定常点への収束問題について検討する。
競合勾配最適化(CGO)を提案する。
連続極限において、CGO前駆体はその勾配降下上昇(GDA)変異に退化することを示す。
- 参考スコア(独自算出の注目度): 7.957286882973197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of convergence to a stationary point in zero-sum games.
We propose competitive gradient optimization (CGO ), a gradient-based method
that incorporates the interactions between the two players in zero-sum games
for optimization updates. We provide continuous-time analysis of CGO and its
convergence properties while showing that in the continuous limit, CGO
predecessors degenerate to their gradient descent ascent (GDA) variants. We
provide a rate of convergence to stationary points and further propose a
generalized class of $\alpha$-coherent function for which we provide
convergence analysis. We show that for strictly $\alpha$-coherent functions,
our algorithm convergences to a saddle point. Moreover, we propose optimistic
CGO (OCGO), an optimistic variant, for which we show convergence rate to saddle
points in $\alpha$-coherent class of functions.
- Abstract(参考訳): ゼロサムゲームにおける定常点への収束問題について検討する。
我々は,ゼロサムゲームにおける2人のプレイヤー間の相互作用を組み込んだ最適化手法である競争勾配最適化(CGO)を提案する。
我々は,cgoの前駆者が勾配降下上昇 (gda) 変種に退化することを示しながら,cgoとその収束特性の連続時間解析を行う。
我々は定常点への収束率を提供し、さらに収束解析を提供する、$\alpha$-coherent関数の一般化クラスを提案する。
厳密な$\alpha$-コヒーレント関数に対しては、アルゴリズムが鞍点に収束することを示す。
さらに, 楽観的変種である楽観的 cgo (ocgo) を提案し, 関数の$\alpha$-coherent クラスにおいて, サドル点への収束率を示す。
関連論文リスト
- Faster Convergence with Multiway Preferences [99.68922143784306]
本稿では,符号関数に基づく比較フィードバックモデルについて考察し,バッチとマルチウェイの比較による収束率の解析を行う。
本研究は,マルチウェイ選好による凸最適化の問題を初めて研究し,最適収束率を解析するものである。
論文 参考訳(メタデータ) (2023-12-19T01:52:13Z) - Last-Iterate Convergence Properties of Regret-Matching Algorithms in
Games [72.43065138581589]
RM$+$ の様々な一般的な変種の最後の点収束特性について検討する。
本稿では, RM$+$の同時適用, RM$+$の交互化, RM$+$の予測, 最終項目収束保証の欠如など, 実用的バリエーションのいくつかを数値的に示す。
そして、スムーズな手法に基づく最近のアルゴリズムの変種は、最終点収束を楽しむことを証明した。
論文 参考訳(メタデータ) (2023-11-01T17:34:58Z) - Adaptive, Doubly Optimal No-Regret Learning in Strongly Monotone and Exp-Concave Games with Gradient Feedback [75.29048190099523]
オンライン勾配降下(OGD)は、強い凸性や単調性仮定の下では二重最適であることが知られている。
本稿では,これらのパラメータの事前知識を必要としない完全適応型OGDアルゴリズム,textsfAdaOGDを設計する。
論文 参考訳(メタデータ) (2023-10-21T18:38:13Z) - On Convergence of Incremental Gradient for Non-Convex Smooth Functions [63.51187646914962]
機械学習とネットワーク最適化では、ミスの数と優れたキャッシュを最小化するため、シャッフルSGDのようなアルゴリズムが人気である。
本稿では任意のデータ順序付けによる収束特性SGDアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2023-05-30T17:47:27Z) - Nesterov Meets Optimism: Rate-Optimal Separable Minimax Optimization [108.35402316802765]
本稿では,新しい一階最適化アルゴリズムであるAcceleratedGradient-OptimisticGradient (AG-OG) Ascentを提案する。
我々はAG-OGが様々な設定に対して最適収束率(定数まで)を達成することを示す。
アルゴリズムを拡張して設定を拡張し、bi-SC-SCとbi-C-SCの両方で最適な収束率を達成する。
論文 参考訳(メタデータ) (2022-10-31T17:59:29Z) - On the Convergence of AdaGrad(Norm) on $\R^{d}$: Beyond Convexity,
Non-Asymptotic Rate and Acceleration [33.247600151322466]
我々は、滑らかな凸関数の標準設定において、AdaGradとその変種についてより深く理解する。
まず、制約のない問題に対して、バニラ AdaGrad の収束率を明示的に拘束する新しい手法を示す。
第二に、平均的な反復ではなく、最後の反復の収束を示すことのできる AdaGrad の変種を提案する。
論文 参考訳(メタデータ) (2022-09-29T14:44:40Z) - Stochastic Gradient Descent-Ascent and Consensus Optimization for Smooth
Games: Convergence Analysis under Expected Co-coercivity [49.66890309455787]
本稿では,SGDA と SCO の最終的な収束保証として,期待されるコヒーレンシティ条件を導入し,その利点を説明する。
定常的なステップサイズを用いた場合、両手法の線形収束性を解の近傍に証明する。
我々の収束保証は任意のサンプリングパラダイムの下で保たれ、ミニバッチの複雑さに関する洞察を与える。
論文 参考訳(メタデータ) (2021-06-30T18:32:46Z) - Convergence of Gradient Algorithms for Nonconvex $C^{1+\alpha}$ Cost
Functions [2.538209532048867]
勾配が収束する副生成物を示し、収束率に明示的な上限を与える。
これにより、ドオブマルティンの超ガレ収束定理によるほぼ確実な収束を証明できる。
論文 参考訳(メタデータ) (2020-12-01T16:48:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。