論文の概要: Convergence and Stability of the Stochastic Proximal Point Algorithm
with Momentum
- arxiv url: http://arxiv.org/abs/2111.06171v5
- Date: Tue, 27 Jun 2023 02:29:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 18:27:02.322450
- Title: Convergence and Stability of the Stochastic Proximal Point Algorithm
with Momentum
- Title(参考訳): モーメントを用いた確率的近位点アルゴリズムの収束と安定性
- Authors: Junhyung Lyle Kim, Panos Toulis, Anastasios Kyrillidis
- Abstract要約: 運動量を持つ勾配近位アルゴリズム(PPA)は、より優れた縮退係数を持つ近位アルゴリズム(PPA)と比較して、近傍への高速収束を可能にすることを示す。
- 参考スコア(独自算出の注目度): 14.158845925610438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stochastic gradient descent with momentum (SGDM) is the dominant algorithm in
many optimization scenarios, including convex optimization instances and
non-convex neural network training. Yet, in the stochastic setting, momentum
interferes with gradient noise, often leading to specific step size and
momentum choices in order to guarantee convergence, set aside acceleration.
Proximal point methods, on the other hand, have gained much attention due to
their numerical stability and elasticity against imperfect tuning. Their
stochastic accelerated variants though have received limited attention: how
momentum interacts with the stability of (stochastic) proximal point methods
remains largely unstudied. To address this, we focus on the convergence and
stability of the stochastic proximal point algorithm with momentum (SPPAM), and
show that SPPAM allows a faster linear convergence to a neighborhood compared
to the stochastic proximal point algorithm (SPPA) with a better contraction
factor, under proper hyperparameter tuning. In terms of stability, we show that
SPPAM depends on problem constants more favorably than SGDM, allowing a wider
range of step size and momentum that lead to convergence.
- Abstract(参考訳): 運動量による確率勾配降下(SGDM)は、凸最適化インスタンスや非凸ニューラルネットワークトレーニングを含む多くの最適化シナリオにおいて支配的なアルゴリズムである。
しかし、確率的な設定では、運動量は勾配ノイズに干渉し、しばしば収束を保証するために特定のステップサイズと運動量選択に繋がる。
一方, 近位点法では, 不完全調律に対する数値的安定性と弾力性が注目されている。
モーメントが(確率的な)近位点法の安定性とどのように相互作用するかはほとんど研究されていない。
そこで我々は,運動量を伴う確率的近位点アルゴリズム(SPPAM)の収束と安定性に着目し,SPPAMは,適切なハイパーパラメータチューニングの下で,より優れた縮退係数を持つ確率的近位点アルゴリズム(SPPA)と比較して,近傍へのより高速な線形収束を可能にすることを示す。
安定性の観点からは、SPPAMはSGDMよりも問題定数に依存しており、より広いステップサイズと運動量で収束することを示す。
関連論文リスト
- A Unified Theory of Stochastic Proximal Point Methods without Smoothness [52.30944052987393]
近点法はその数値的安定性と不完全なチューニングに対する頑健性からかなりの関心を集めている。
本稿では,近位点法(SPPM)の幅広いバリエーションの包括的解析について述べる。
論文 参考訳(メタデータ) (2024-05-24T21:09:19Z) - The ODE Method for Stochastic Approximation and Reinforcement Learning with Markovian Noise [17.493808856903303]
近似アルゴリズムを解析する根本的な課題は、その安定性を確立することである。
本稿では,マルティンゲール差分雑音設定からマルコフ雑音設定へ有界な安定に対するボルカー・メイン定理を拡張する。
我々の分析の中心は、少数の関数の変化の減少率であり、これは多量の強い法則の形式とよく用いられるV4 Lynovドリフト条件の両方によって示唆される。
論文 参考訳(メタデータ) (2024-01-15T17:20:17Z) - Learning to Optimize with Stochastic Dominance Constraints [103.26714928625582]
本稿では,不確実量を比較する問題に対して,単純かつ効率的なアプローチを開発する。
我々はラグランジアンの内部最適化をサロゲート近似の学習問題として再考した。
提案したライト-SDは、ファイナンスからサプライチェーン管理に至るまで、いくつかの代表的な問題において優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-14T21:54:31Z) - Last-iterate convergence analysis of stochastic momentum methods for
neural networks [3.57214198937538]
運動量法は、ニューラルネットワークの大規模最適化問題を解決するために用いられる。
人工環境下での運動量測定法の電流収束結果
運動量係数は、既存の時間よりも定数に固定することができる。
論文 参考訳(メタデータ) (2022-05-30T02:17:44Z) - A Semismooth Newton Stochastic Proximal Point Algorithm with Variance Reduction [2.048226951354646]
弱凸, 複合最適化問題に対する実装可能な近位点(SPP)法を開発した。
提案アルゴリズムは分散低減機構を組み込んでおり、その結果の更新は不正確なセミスムース・ニュートン・フレームワークを用いて解決される。
論文 参考訳(メタデータ) (2022-04-01T13:08:49Z) - Breaking the Convergence Barrier: Optimization via Fixed-Time Convergent
Flows [4.817429789586127]
本稿では, 固定時間安定力学系の概念に基づいて, 加速を実現するための多言語最適化フレームワークを提案する。
提案手法の高速化された収束特性を,最先端の最適化アルゴリズムに対して様々な数値例で検証する。
論文 参考訳(メタデータ) (2021-12-02T16:04:40Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - On the Convergence of Stochastic Extragradient for Bilinear Games with
Restarted Iteration Averaging [96.13485146617322]
本稿では, ステップサイズが一定であるSEG法の解析を行い, 良好な収束をもたらす手法のバリエーションを示す。
平均化で拡張した場合、SEGはナッシュ平衡に確実に収束し、スケジュールされた再起動手順を組み込むことで、その速度が確実に加速されることを証明した。
論文 参考訳(メタデータ) (2021-06-30T17:51:36Z) - Stochastic optimization with momentum: convergence, fluctuations, and
traps avoidance [0.0]
本稿では,重球法,ネステロフ加速勾配法(S-NAG),広く使用されているアダム法など,勾配勾配勾配のいくつかの変種を統一する一般最適化手法について検討する。
この回避は、非自明な常微分方程式のノイズ離散化として研究される。
論文 参考訳(メタデータ) (2020-12-07T19:14:49Z) - Fast Objective & Duality Gap Convergence for Non-Convex Strongly-Concave
Min-Max Problems with PL Condition [52.08417569774822]
本稿では,深層学習(深層AUC)により注目度が高まっている,円滑な非凹部min-max問題の解法に焦点をあてる。
論文 参考訳(メタデータ) (2020-06-12T00:32:21Z) - Optimization with Momentum: Dynamical, Control-Theoretic, and Symplectic
Perspectives [97.16266088683061]
この論文は、運動量に基づく最適化アルゴリズムにおいてシンプレクティックな離散化スキームが重要であることを厳格に証明している。
これは加速収束を示すアルゴリズムの特性を提供する。
論文 参考訳(メタデータ) (2020-02-28T00:32:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。