論文の概要: Dynamics of Stochastic Momentum Methods on Large-scale, Quadratic Models
- arxiv url: http://arxiv.org/abs/2106.03696v1
- Date: Mon, 7 Jun 2021 15:08:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:22:32.898836
- Title: Dynamics of Stochastic Momentum Methods on Large-scale, Quadratic Models
- Title(参考訳): 大規模二次模型における確率運動量のダイナミクス
- Authors: Courtney Paquette, Elliot Paquette
- Abstract要約: 我々は高次元ランダム最小二乗問題に対して運動量を持つ勾配アルゴリズムのクラスを解析する。
固定運動量パラメータを持つ(小バッチ)運動量では,ステップサイズを正確に調整した場合,SGDよりも実際の性能向上は得られないことを示す。
非強凸条件では、運動量を用いてSGDよりも大きな改善が得られる。
- 参考スコア(独自算出の注目度): 0.2741266294612776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We analyze a class of stochastic gradient algorithms with momentum on a
high-dimensional random least squares problem. Our framework, inspired by
random matrix theory, provides an exact (deterministic) characterization for
the sequence of loss values produced by these algorithms which is expressed
only in terms of the eigenvalues of the Hessian. This leads to simple
expressions for nearly-optimal hyperparameters, a description of the limiting
neighborhood, and average-case complexity.
As a consequence, we show that (small-batch) stochastic heavy-ball momentum
with a fixed momentum parameter provides no actual performance improvement over
SGD when step sizes are adjusted correctly. For contrast, in the non-strongly
convex setting, it is possible to get a large improvement over SGD using
momentum. By introducing hyperparameters that depend on the number of samples,
we propose a new algorithm sDANA (stochastic dimension adjusted Nesterov
acceleration) which obtains an asymptotically optimal average-case complexity
while remaining linearly convergent in the strongly convex setting without
adjusting parameters.
- Abstract(参考訳): 高次元ランダム最小二乗問題に対する運動量を持つ確率的勾配アルゴリズムのクラスを解析した。
確率行列理論にインスパイアされた我々のフレームワークは、これらのアルゴリズムによって生成される損失値の列を正確に(決定論的)特徴づけ、ヘッセンの固有値の項でのみ表現する。
これにより、準最適ハイパーパラメーターの単純な表現、極限近傍の記述、平均ケース複雑性が導かれる。
その結果,固定運動量パラメータを持つ(小バッチ)確率的重球運動量は,ステップサイズが正しく調整された場合,sgdよりも性能が向上しないことが示された。
対照的に、非強凸条件では運動量を用いてSGDよりも大きな改善が得られる。
サンプル数に依存するハイパーパラメータを導入することで,パラメータを調整せずに強凸設定に線形収束し,漸近的に最適な平均ケース複雑性を求める新しいアルゴリズムsdana(stochastic dimension adaptive nesterov acceleration)を提案する。
関連論文リスト
- Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - Formal guarantees for heuristic optimization algorithms used in machine
learning [6.978625807687497]
グラディエント・Descent(SGD)とその変種は、大規模最適化機械学習(ML)問題において支配的な手法となっている。
本稿では,いくつかの凸最適化手法の形式的保証と改良アルゴリズムの提案を行う。
論文 参考訳(メタデータ) (2022-07-31T19:41:22Z) - Improved Convergence Rate of Stochastic Gradient Langevin Dynamics with
Variance Reduction and its Application to Optimization [50.83356836818667]
勾配ランゲヴィン・ダイナミクスは非エプス最適化問題を解くための最も基本的なアルゴリズムの1つである。
本稿では、このタイプの2つの変種、すなわち、分散還元ランジュバンダイナミクスと再帰勾配ランジュバンダイナミクスを示す。
論文 参考訳(メタデータ) (2022-03-30T11:39:00Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - SGD in the Large: Average-case Analysis, Asymptotics, and Stepsize
Criticality [15.640534097470923]
本稿では,サンプル数と寸法がともに大きい場合の勾配降下(SGD)のダイナミクスを解析するための新しい枠組みを提案する。
この新たな枠組みを用いて, ランダムデータを用いた最小二乗問題におけるSGDの力学が, 標本および次元限界において決定論的になることを示す。
論文 参考訳(メタデータ) (2021-02-08T18:00:13Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z) - Bayesian Sparse learning with preconditioned stochastic gradient MCMC
and its applications [5.660384137948734]
提案アルゴリズムは, 温和な条件下で, 制御可能なバイアスで正しい分布に収束する。
提案アルゴリズムは, 温和な条件下で, 制御可能なバイアスで正しい分布に収束可能であることを示す。
論文 参考訳(メタデータ) (2020-06-29T20:57:20Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Stochastic Optimization with Heavy-Tailed Noise via Accelerated Gradient
Clipping [69.9674326582747]
そこで本研究では,重み付き分散雑音を用いたスムーズな凸最適化のための,クリップ付きSSTMと呼ばれる新しい1次高速化手法を提案する。
この場合、最先端の結果を上回る新たな複雑さが証明される。
本研究は,SGDにおいて,ノイズに対する光細かな仮定を伴わずにクリッピングを施した最初の非自明な高確率複雑性境界を導出した。
論文 参考訳(メタデータ) (2020-05-21T17:05:27Z) - Stochastic Proximal Gradient Algorithm with Minibatches. Application to
Large Scale Learning Models [2.384873896423002]
非滑らかな成分を持つ汎用合成対象関数に対する勾配アルゴリズムのミニバッチ変種を開発し解析する。
我々は、最小バッチサイズ$N$に対して、$mathcalO(frac1Nepsilon)$$epsilon-$subityが最適解に期待される二次距離で達成されるような、定数および変数のステップサイズ反復ポリシーの複雑さを提供する。
論文 参考訳(メタデータ) (2020-03-30T10:43:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。