論文の概要: Stochastic Methods in Variational Inequalities: Ergodicity, Bias and
Refinements
- arxiv url: http://arxiv.org/abs/2306.16502v1
- Date: Wed, 28 Jun 2023 18:50:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 15:55:25.395119
- Title: Stochastic Methods in Variational Inequalities: Ergodicity, Bias and
Refinements
- Title(参考訳): 変分不等式の確率的方法:エルゴディディティ、バイアス、リファインメント
- Authors: Emmanouil-Vasileios Vlatakis-Gkaragkounis, Angeliki Giannou, Yudong
Chen, Qiaomin Xie
- Abstract要約: Extragradient (SEG) と Gradient Descent Ascent (SGDA) は min-max 最適化と変分不等式問題に対する優越アルゴリズムである。
これらのアルゴリズムに固有の本質的な構造を定量化し定量化するための我々の取り組み。
定数のステップサイズSEG/SGDAを時間同質マルコフ連鎖として再キャストすることにより、大数の第一種法則と中心極限定理を確立する。
- 参考スコア(独自算出の注目度): 19.524063429548278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For min-max optimization and variational inequalities problems (VIP)
encountered in diverse machine learning tasks, Stochastic Extragradient (SEG)
and Stochastic Gradient Descent Ascent (SGDA) have emerged as preeminent
algorithms. Constant step-size variants of SEG/SGDA have gained popularity,
with appealing benefits such as easy tuning and rapid forgiveness of initial
conditions, but their convergence behaviors are more complicated even in
rudimentary bilinear models. Our work endeavors to elucidate and quantify the
probabilistic structures intrinsic to these algorithms. By recasting the
constant step-size SEG/SGDA as time-homogeneous Markov Chains, we establish a
first-of-its-kind Law of Large Numbers and a Central Limit Theorem,
demonstrating that the average iterate is asymptotically normal with a unique
invariant distribution for an extensive range of monotone and non-monotone
VIPs. Specializing to convex-concave min-max optimization, we characterize the
relationship between the step-size and the induced bias with respect to the
Von-Neumann's value. Finally, we establish that Richardson-Romberg
extrapolation can improve proximity of the average iterate to the global
solution for VIPs. Our probabilistic analysis, underpinned by experiments
corroborating our theoretical discoveries, harnesses techniques from
optimization, Markov chains, and operator theory.
- Abstract(参考訳): 様々な機械学習タスクで発生する分極最適化と変分不等式問題 (VIP) に対して、Stochastic Extragradient (SEG) とStochastic Gradient Descent Ascent (SGDA) が最優先のアルゴリズムとして登場した。
SEG/SGDAの定常的なステップサイズ変種は、簡単なチューニングや初期条件の迅速な許容といった魅力的な利点によって人気を集めているが、それらの収束挙動は初歩的な双線形モデルにおいてもより複雑である。
我々の研究は、これらのアルゴリズムに固有の確率構造を解明し、定量化する努力をしている。
定数のステップサイズSEG/SGDAを時間同質マルコフ連鎖として再キャストすることにより、大数第一種法則と中心極限定理を確立し、平均イテレートが漸近正規であり、幅広いモノトンおよび非モノトンVIPに対してユニークな不変分布を持つことを示した。
凸凹 min-max 最適化に特化して、Von-Neumann の値に対するステップサイズと誘導バイアスの関係を特徴づける。
最後に、richardson-romberg外挿により、vipsのグローバルソリューションへの平均反復値の近接性が向上することを示す。
我々の確率論的分析は、我々の理論的な発見を裏付ける実験によって支えられ、最適化、マルコフ連鎖、演算子理論からの技術を利用する。
関連論文リスト
- Stochastic Extragradient with Random Reshuffling: Improved Convergence
for Variational Inequalities [11.339003302353163]
本稿では,3種類のVIPに対してランダムリシャッフル(SEG-RR)を用いたSEGの収束解析を行う。
我々は,SEG-RRが均一な置換サンプリングSEGよりも高速に収束する条件を導出する。
単調な設定では,SEG-RRの解析により,大きなバッチサイズを伴わずに任意の精度で収束が保証される。
論文 参考訳(メタデータ) (2024-03-11T20:35:52Z) - Clipped Stochastic Methods for Variational Inequalities with
Heavy-Tailed Noise [64.85879194013407]
単調なVIPと非単調なVIPの解法における信頼度に対数的依存を持つ最初の高確率結果が証明された。
この結果は光尾の場合で最もよく知られたものと一致し,非単調な構造問題に新鮮である。
さらに,多くの実用的な定式化の勾配雑音が重く,クリッピングによりSEG/SGDAの性能が向上することを示す。
論文 参考訳(メタデータ) (2022-06-02T15:21:55Z) - Stochastic Gradient Descent-Ascent: Unified Theory and New Efficient
Methods [73.35353358543507]
SGDA(Gradient Descent-Ascent)は、min-max最適化と変分不等式問題(VIP)を解くための最も顕著なアルゴリズムの1つである。
本稿では,多種多様な降下指数法を網羅した統合収束解析を提案する。
本研究では,新しい分散化手法 (L-SVRGDA) や,新しい分散圧縮方式 (QSGDA, DIANA-SGDA, VR-DIANA-SGDA) ,座標ランダム化方式 (SEGA-SGDA) など,SGDAの新しい変種を開発した。
論文 参考訳(メタデータ) (2022-02-15T09:17:39Z) - Sharp global convergence guarantees for iterative nonconvex
optimization: A Gaussian process perspective [30.524043513721168]
回帰モデルのクラスに対する反復アルゴリズムの収束を解析するための一般的なレシピを開発する。
決定論的には、有限サンプル状態におけるアルゴリズムの収束率と最終的なエラーフロアの両方を正確にキャプチャする。
我々は、更新の交互化に基づく高次アルゴリズムと、下位次数に基づく一次アルゴリズムの両方に対して、鋭い収束率を示す。
論文 参考訳(メタデータ) (2021-09-20T21:48:19Z) - Stochastic Gradient Descent-Ascent and Consensus Optimization for Smooth
Games: Convergence Analysis under Expected Co-coercivity [49.66890309455787]
本稿では,SGDA と SCO の最終的な収束保証として,期待されるコヒーレンシティ条件を導入し,その利点を説明する。
定常的なステップサイズを用いた場合、両手法の線形収束性を解の近傍に証明する。
我々の収束保証は任意のサンプリングパラダイムの下で保たれ、ミニバッチの複雑さに関する洞察を与える。
論文 参考訳(メタデータ) (2021-06-30T18:32:46Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - On Stochastic Moving-Average Estimators for Non-Convex Optimization [105.22760323075008]
本稿では,移動平均(SEMA)問題に基づく広く利用されている推定器のパワーを実証する。
これらすべてのアートな結果に対して、これらのアートな問題に対する結果も提示します。
論文 参考訳(メタデータ) (2021-04-30T08:50:24Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Convergence Analysis of Homotopy-SGD for non-convex optimization [43.71213126039448]
ホモトピー法とSGDを組み合わせた一階述語アルゴリズム、Gradienty-Stoch Descent (H-SGD)を提案する。
いくつかの仮定の下で、提案した問題の理論的解析を行う。
実験の結果,H-SGDはSGDより優れていた。
論文 参考訳(メタデータ) (2020-11-20T09:50:40Z) - Convergence rates and approximation results for SGD and its
continuous-time counterpart [16.70533901524849]
本稿では,非増加ステップサイズを有する凸勾配Descent (SGD) の完全理論的解析を提案する。
まず、結合を用いた不均一微分方程式(SDE)の解により、SGDを確実に近似できることを示す。
連続的手法による決定論的および最適化手法の最近の分析において, 連続過程の長期的挙動と非漸近的境界について検討する。
論文 参考訳(メタデータ) (2020-04-08T18:31:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。