論文の概要: Clipped Stochastic Methods for Variational Inequalities with
Heavy-Tailed Noise
- arxiv url: http://arxiv.org/abs/2206.01095v1
- Date: Thu, 2 Jun 2022 15:21:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 14:53:32.002204
- Title: Clipped Stochastic Methods for Variational Inequalities with
Heavy-Tailed Noise
- Title(参考訳): 重音を伴う変分不等式に対するクラッピング確率法
- Authors: Eduard Gorbunov, Marina Danilova, David Dobre, Pavel Dvurechensky,
Alexander Gasnikov, Gauthier Gidel
- Abstract要約: 単調なVIPと非単調なVIPの解法における信頼度に対数的依存を持つ最初の高確率結果が証明された。
この結果は光尾の場合で最もよく知られたものと一致し,非単調な構造問題に新鮮である。
さらに,多くの実用的な定式化の勾配雑音が重く,クリッピングによりSEG/SGDAの性能が向上することを示す。
- 参考スコア(独自算出の注目度): 64.85879194013407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic first-order methods such as Stochastic Extragradient (SEG) or
Stochastic Gradient Descent-Ascent (SGDA) for solving smooth minimax problems
and, more generally, variational inequality problems (VIP) have been gaining a
lot of attention in recent years due to the growing popularity of adversarial
formulations in machine learning. However, while high-probability convergence
bounds are known to reflect the actual behavior of stochastic methods more
accurately, most convergence results are provided in expectation. Moreover, the
only known high-probability complexity results have been derived under
restrictive sub-Gaussian (light-tailed) noise and bounded domain Assump.
[Juditsky et al., 2011]. In this work, we prove the first high-probability
complexity results with logarithmic dependence on the confidence level for
stochastic methods for solving monotone and structured non-monotone VIPs with
non-sub-Gaussian (heavy-tailed) noise and unbounded domains. In the monotone
case, our results match the best-known ones in the light-tails case [Juditsky
et al., 2011], and are novel for structured non-monotone problems such as
negative comonotone, quasi-strongly monotone, and/or star-cocoercive ones. We
achieve these results by studying SEG and SGDA with clipping. In addition, we
numerically validate that the gradient noise of many practical GAN formulations
is heavy-tailed and show that clipping improves the performance of SEG/SGDA.
- Abstract(参考訳): 滑らかなミニマックス問題の解法としてSGDA(Stochastic Extragradient)やSGDA(Stochastic Gradient Descent-Ascent)のような確率的一階述語法や、より一般的には変分不等式問題(VIP)が近年注目を集めている。
しかし、確率的手法の実際の挙動をより正確に反映する高確率収束境界は知られているが、ほとんどの収束結果が期待されている。
さらに、唯一知られている高確率複雑性の結果は、制限付きサブガウシアンノイズと有界領域推定の下で導出されている。
(『juditsky et al.』2011年)
本研究では,非ガウス雑音と非有界領域を用いた単調・非単調VIPの確率的解法における信頼度に対数的依存を持つ最初の高確率複雑性結果を示す。
モノトンの場合,この結果は光尾の場合 (Juditsky et al., 2011) で最もよく知られたものと一致し, 負のコモノトン, 準強いモノトン, および/または星のコヒーレンシブ問題のような非モノトン問題に対する新規である。
クリッピングによりSEGおよびSGDAを解析し,これらの結果を得た。
さらに,多くの実用的なGAN定式化の勾配雑音が重く,クリッピングによりSEG/SGDAの性能が向上することを示す。
関連論文リスト
- From Gradient Clipping to Normalization for Heavy Tailed SGD [19.369399536643773]
最近の実証的な証拠は、機械学習の応用が重尾ノイズを伴い、実際に有界分散の標準的な仮定に挑戦していることを示している。
本稿では, 勾配依存型雑音収束問題において, テール雑音下での厳密性を実現することができることを示す。
論文 参考訳(メタデータ) (2024-10-17T17:59:01Z) - Breaking the Heavy-Tailed Noise Barrier in Stochastic Optimization Problems [56.86067111855056]
構造密度の重み付き雑音によるクリップ最適化問題を考察する。
勾配が有限の順序モーメントを持つとき、$mathcalO(K-(alpha - 1)/alpha)$よりも高速な収束率が得られることを示す。
得られた推定値が無視可能なバイアスと制御可能な分散を持つことを示す。
論文 参考訳(メタデータ) (2023-11-07T17:39:17Z) - High-Probability Convergence for Composite and Distributed Stochastic Minimization and Variational Inequalities with Heavy-Tailed Noise [96.80184504268593]
グラデーション、クリッピングは、優れた高確率保証を導き出すアルゴリズムの鍵となる要素の1つである。
クリッピングは、合成および分散最適化の一般的な方法の収束を損なう可能性がある。
論文 参考訳(メタデータ) (2023-10-03T07:49:17Z) - Stochastic Methods in Variational Inequalities: Ergodicity, Bias and
Refinements [19.524063429548278]
Extragradient (SEG) と Gradient Descent Ascent (SGDA) は min-max 最適化と変分不等式問題に対する優越アルゴリズムである。
これらのアルゴリズムに固有の本質的な構造を定量化し定量化するための我々の取り組み。
定数のステップサイズSEG/SGDAを時間同質マルコフ連鎖として再キャストすることにより、大数の第一種法則と中心極限定理を確立する。
論文 参考訳(メタデータ) (2023-06-28T18:50:07Z) - SGD with AdaGrad Stepsizes: Full Adaptivity with High Probability to
Unknown Parameters, Unbounded Gradients and Affine Variance [33.593203156666746]
本稿では,AdaGradが一階最適化のための適応(自己調整)手法を段階化することを示す。
低ノイズと高レジの両方で、低ノイズと高レジの両方で急激な収束率を見出す。
論文 参考訳(メタデータ) (2023-02-17T09:46:08Z) - High-Probability Bounds for Stochastic Optimization and Variational
Inequalities: the Case of Unbounded Variance [59.211456992422136]
制約の少ない仮定の下で高確率収束結果のアルゴリズムを提案する。
これらの結果は、標準機能クラスに適合しない問題を最適化するために検討された手法の使用を正当化する。
論文 参考訳(メタデータ) (2023-02-02T10:37:23Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Stochastic Optimization with Heavy-Tailed Noise via Accelerated Gradient
Clipping [69.9674326582747]
そこで本研究では,重み付き分散雑音を用いたスムーズな凸最適化のための,クリップ付きSSTMと呼ばれる新しい1次高速化手法を提案する。
この場合、最先端の結果を上回る新たな複雑さが証明される。
本研究は,SGDにおいて,ノイズに対する光細かな仮定を伴わずにクリッピングを施した最初の非自明な高確率複雑性境界を導出した。
論文 参考訳(メタデータ) (2020-05-21T17:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。