論文の概要: A More Stable Accelerated Gradient Method Inspired by Continuous-Time
Perspective
- arxiv url: http://arxiv.org/abs/2112.04922v1
- Date: Thu, 9 Dec 2021 13:37:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 16:14:47.699273
- Title: A More Stable Accelerated Gradient Method Inspired by Continuous-Time
Perspective
- Title(参考訳): 連続時間視点によるより安定な加速勾配法
- Authors: Yasong Feng and Weiguo Gao
- Abstract要約: ネステロフの加速勾配法(NAG)は、ディープラーニングを含む機械学習のバックグラウンドの問題に広く用いられている。
本研究は, 数値解析から着想を得た安定性の観点から, NAGの新たな改良について述べる。
行列補完と手書き文字認識の実験により,本手法の安定性が向上したことを示す。
- 参考スコア(独自算出の注目度): 1.2691047660244335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nesterov's accelerated gradient method (NAG) is widely used in problems with
machine learning background including deep learning, and is corresponding to a
continuous-time differential equation. From this connection, the property of
the differential equation and its numerical approximation can be investigated
to improve the accelerated gradient method. In this work we present a new
improvement of NAG in terms of stability inspired by numerical analysis. We
give the precise order of NAG as a numerical approximation of its
continuous-time limit and then present a new method with higher order. We show
theoretically that our new method is more stable than NAG for large step size.
Experiments of matrix completion and handwriting digit recognition demonstrate
that the stability of our new method is better. Furthermore, better stability
leads to higher computational speed in experiments.
- Abstract(参考訳): ネステロフの加速勾配法(NAG)は、ディープラーニングを含む機械学習の背景問題において広く用いられ、連続時間微分方程式に対応する。
この関係から、微分方程式の性質とその数値近似を解析し、加速勾配法を改善することができる。
本研究は, 数値解析から着想を得た安定性の観点から, NAGの新たな改良を提案する。
我々はNAGの正確な順序を連続時間限界の数値近似として与え、より高い順序で新しい方法を示す。
提案手法は,大きなステップサイズにおいてNAGよりも安定であることを示す。
行列補完と手書き文字認識の実験により,本手法の安定性が向上したことを示す。
さらに、安定性の向上は、実験の計算速度の向上につながる。
関連論文リスト
- Faster Convergence of Stochastic Accelerated Gradient Descent under Interpolation [51.248784084461334]
我々はNesterov加速度アンダーホ条件の一般化版に対する新しい収束率を証明した。
本分析により, 従来の研究に比べて, 強い成長定数への依存度を$$$から$sqrt$に下げることができた。
論文 参考訳(メタデータ) (2024-04-03T00:41:19Z) - Incremental Quasi-Newton Methods with Faster Superlinear Convergence
Rates [50.36933471975506]
各成分関数が強く凸であり、リプシッツ連続勾配とヘシアンを持つ有限和最適化問題を考える。
最近提案されたインクリメンタル準ニュートン法は、BFGSの更新に基づいて、局所的な超線形収束率を達成する。
本稿では、対称ランク1更新をインクリメンタルフレームワークに組み込むことにより、より効率的な準ニュートン法を提案する。
論文 参考訳(メタデータ) (2024-02-04T05:54:51Z) - Acceleration and Implicit Regularization in Gaussian Phase Retrieval [5.484345596034159]
この設定では、Polyak や Nesterov の運動量の暗黙的な正規化による手法が、よい凸降下を保証することを証明している。
実験的な証拠は、これらの手法が実際には勾配降下よりも早く収束していることを示している。
論文 参考訳(メタデータ) (2023-11-21T04:10:03Z) - A Variational Perspective on High-Resolution ODEs [10.036727981085223]
強制オイラー・ラグランジュ方程式を用いた凸関数の制約のない最小化を考える。
ネステロフの加速勾配法を用いて、勾配ノルム最小化のための高速収束率を求める。
論文 参考訳(メタデータ) (2023-11-03T16:00:40Z) - Toward Efficient Gradient-Based Value Estimation [4.365720395124051]
強化学習における値推定の勾配に基づく手法は、時間差(TD)学習法よりも典型的にはるかに遅い。
この速度の根本原因について検討し,メアン・スクエア・ベルマン・エラー(MSBE)がヘッセンの条件数が大きいという意味で不条件損失関数であることを示す。
本稿では,ガウス・ニュートン方向をほぼ追従し,パラメータ化に頑健な,低複雑性なバッチフリー近似法を提案する。
RANSと呼ばれる本アルゴリズムは, ほぼ同一でありながら, 残留勾配法よりもかなり高速であるという意味で, 効率的である。
論文 参考訳(メタデータ) (2023-01-31T16:45:49Z) - Improved Convergence Rate of Stochastic Gradient Langevin Dynamics with
Variance Reduction and its Application to Optimization [50.83356836818667]
勾配ランゲヴィン・ダイナミクスは非エプス最適化問題を解くための最も基本的なアルゴリズムの1つである。
本稿では、このタイプの2つの変種、すなわち、分散還元ランジュバンダイナミクスと再帰勾配ランジュバンダイナミクスを示す。
論文 参考訳(メタデータ) (2022-03-30T11:39:00Z) - On the Convergence of Stochastic Extragradient for Bilinear Games with
Restarted Iteration Averaging [96.13485146617322]
本稿では, ステップサイズが一定であるSEG法の解析を行い, 良好な収束をもたらす手法のバリエーションを示す。
平均化で拡張した場合、SEGはナッシュ平衡に確実に収束し、スケジュールされた再起動手順を組み込むことで、その速度が確実に加速されることを証明した。
論文 参考訳(メタデータ) (2021-06-30T17:51:36Z) - Hessian-Free High-Resolution Nesterov Acceleration for Sampling [55.498092486970364]
最適化のためのNesterovのAccelerated Gradient(NAG)は、有限のステップサイズを使用する場合の連続時間制限(ノイズなしの運動的ランゲヴィン)よりも優れたパフォーマンスを持つ。
本研究は, この現象のサンプリング法について検討し, 離散化により加速勾配に基づくMCMC法が得られる拡散過程を提案する。
論文 参考訳(メタデータ) (2020-06-16T15:07:37Z) - Adaptive Gradient Methods Can Be Provably Faster than SGD after Finite
Epochs [25.158203665218164]
適応勾配法は有限時間後にランダムシャッフルSGDよりも高速であることを示す。
我々の知る限り、適応的勾配法は有限時間後にSGDよりも高速であることを示すのはこれが初めてである。
論文 参考訳(メタデータ) (2020-06-12T09:39:47Z) - Proximal Gradient Temporal Difference Learning: Stable Reinforcement
Learning with Polynomial Sample Complexity [40.73281056650241]
本稿では,真の勾配時間差学習アルゴリズムを設計・解析する原理的な方法として,近位勾配時間差学習を導入する。
本研究では, 従来の目的関数からではなく, 主目的関数から始めることによって, 勾配性TD強化学習法を公式に導出する方法を示す。
論文 参考訳(メタデータ) (2020-06-06T21:04:21Z) - Interpolation Technique to Speed Up Gradients Propagation in Neural ODEs [71.26657499537366]
本稿では,ニューラルネットワークモデルにおける勾配の効率的な近似法を提案する。
我々は、分類、密度推定、推論近似タスクにおいて、ニューラルODEをトレーニングするリバースダイナミック手法と比較する。
論文 参考訳(メタデータ) (2020-03-11T13:15:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。