論文の概要: Convergence of Gradient Algorithms for Nonconvex $C^{1+\alpha}$ Cost
Functions
- arxiv url: http://arxiv.org/abs/2012.00628v1
- Date: Tue, 1 Dec 2020 16:48:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 02:51:56.143666
- Title: Convergence of Gradient Algorithms for Nonconvex $C^{1+\alpha}$ Cost
Functions
- Title(参考訳): 非凸$C^{1+\alpha}$コスト関数の勾配アルゴリズムの収束性
- Authors: Zixuan Wang and Shanjian Tang
- Abstract要約: 勾配が収束する副生成物を示し、収束率に明示的な上限を与える。
これにより、ドオブマルティンの超ガレ収束定理によるほぼ確実な収束を証明できる。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper is concerned with convergence of stochastic gradient algorithms
with momentum terms in the nonconvex setting. A class of stochastic momentum
methods, including stochastic gradient descent, heavy ball, and Nesterov's
accelerated gradient, is analyzed in a general framework under quite mild
assumptions. We show that the expected gradient converges and provide an
explicit upper bound on the convergence rate. Then a supermartingale can be
constructed by proper approximations of the noise and momentum terms. This
allows us to prove the almost sure convergence by Doob's supermartingale
convergence theorem and a discussion of the number of upcrossings in detail. It
is worth noting that the existing Lipschitz condition of the gradient of the
objective function is relaxed into the condition of H\"older continuity.
Another improvement is that there are no additional restrictions imposed on
stepsizes. As a byproduct, we apply a localization procedure to extend our
results to stochastic stepsizes.
- Abstract(参考訳): 本稿では,非凸条件における運動量項を持つ確率勾配アルゴリズムの収束について述べる。
確率的勾配降下、重球、ネステロフの加速勾配を含む確率的モーメントのクラスは、非常に穏やかな仮定の下で一般的な枠組みで解析される。
予測された勾配が収束し、収束率の明示的な上限を与えることを示す。
そして、ノイズと運動量項の適切な近似によってスーパーマーチンゲールを構築することができる。
これにより、ドゥーブの超マーチンゲール収束定理(supermartingale convergence theorem)によってほぼ確実に収束することを示すことができる。
対象関数の勾配の既存のリプシッツ条件は H より古い連続性の条件に緩和されることに注意する必要がある。
もう1つの改善は、stepizesに追加の制限が課されないことである。
副産物として,確率的ステップズに結果を拡張するために局所化手順を適用する。
関連論文リスト
- Faster Convergence of Stochastic Accelerated Gradient Descent under Interpolation [51.248784084461334]
我々はNesterov加速度アンダーホ条件の一般化版に対する新しい収束率を証明した。
本分析により, 従来の研究に比べて, 強い成長定数への依存度を$$$から$sqrt$に下げることができた。
論文 参考訳(メタデータ) (2024-04-03T00:41:19Z) - Convex and Non-convex Optimization Under Generalized Smoothness [69.69521650503431]
凸法と非最適化法の分析は、しばしばリプシッツ勾配を必要とし、この軌道による解析を制限する。
最近の研究は、非一様滑らか性条件を通した勾配設定を一般化している。
論文 参考訳(メタデータ) (2023-06-02T04:21:59Z) - Convergence of Adam Under Relaxed Assumptions [72.24779199744954]
我々は、アダムがより現実的な条件下で、$O(epsilon-4)$勾配複雑性で$epsilon$-定常点に収束することを示している。
また、Adamの分散還元版を$O(epsilon-3)$の加速勾配複雑性で提案する。
論文 参考訳(メタデータ) (2023-04-27T06:27:37Z) - Optimal Extragradient-Based Bilinearly-Coupled Saddle-Point Optimization [116.89941263390769]
滑らかな凸凹凸結合型サドル点問題, $min_mathbfxmax_mathbfyF(mathbfx) + H(mathbfx,mathbfy)$ を考える。
漸進的勾配指数(AG-EG)降下指数アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-06-17T06:10:20Z) - On Almost Sure Convergence Rates of Stochastic Gradient Methods [11.367487348673793]
勾配法で得られるほぼ確実な収束速度が、可能な限り最適な収束速度に任意に近づくことを示す。
非客観的関数に対しては、二乗勾配ノルムの重み付き平均がほぼ確実に収束するだけでなく、ほぼ確実に0となることを示す。
論文 参考訳(メタデータ) (2022-02-09T06:05:30Z) - A Unified Analysis of First-Order Methods for Smooth Games via Integral
Quadratic Constraints [10.578409461429626]
本研究では、滑らかで強可変なゲームやイテレーションのための一階法に積分二次的制約理論を適用する。
我々は、負の運動量法(NM)に対して、既知の下界と一致する複雑性$mathcalO(kappa1.5)$で、初めて大域収束率を与える。
一段階のメモリを持つアルゴリズムでは,バッチ毎に1回だけ勾配を問合せすれば,高速化は不可能であることを示す。
論文 参考訳(メタデータ) (2020-09-23T20:02:00Z) - On the Almost Sure Convergence of Stochastic Gradient Descent in
Non-Convex Problems [75.58134963501094]
本稿では,勾配降下(SGD)の軌跡を解析する。
我々はSGDが厳格なステップサイズポリシーのために1ドルでサドルポイント/マニフォールドを避けることを示す。
論文 参考訳(メタデータ) (2020-06-19T14:11:26Z) - Almost sure convergence rates for Stochastic Gradient Descent and
Stochastic Heavy Ball [17.33867778750777]
一般近似問題に対する勾配降下法(SGD)と重球法(SHB)について検討した。
SGD の場合、凸と滑らかな設定において、イテレートの重み付き平均に対して、最初の最も確実な収束式を提供する。
論文 参考訳(メタデータ) (2020-06-14T11:12:05Z) - The Convergence Indicator: Improved and completely characterized
parameter bounds for actual convergence of Particle Swarm Optimization [68.8204255655161]
我々は、粒子が最終的に単一点に収束するか、分岐するかを計算するのに使用できる新しい収束指標を導入する。
この収束指標を用いて、収束群につながるパラメータ領域を完全に特徴づける実際の境界を提供する。
論文 参考訳(メタデータ) (2020-06-06T19:08:05Z) - On the Convergence of Nesterov's Accelerated Gradient Method in
Stochastic Settings [5.101801159418223]
定常ステップサイズおよび運動量パラメータを用いたネステロフ加速勾配法について検討した。
有限サム設定では、ネステロフの方法が通常のステップサイズと運動量の選択と分岐することを証明している。
論文 参考訳(メタデータ) (2020-02-27T19:56:41Z) - Stochastic gradient-free descents [8.663453034925363]
本稿では,最適化問題の解法として,モーメント付き勾配法と加速勾配を提案する。
本研究では,これらの手法の収束挙動を平均分散フレームワークを用いて解析する。
論文 参考訳(メタデータ) (2019-12-31T13:56:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。