論文の概要: An Analysis of Constant Step Size SGD in the Non-convex Regime:
Asymptotic Normality and Bias
- arxiv url: http://arxiv.org/abs/2006.07904v2
- Date: Thu, 30 Jul 2020 01:27:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 12:56:30.469207
- Title: An Analysis of Constant Step Size SGD in the Non-convex Regime:
Asymptotic Normality and Bias
- Title(参考訳): 非凸領域における定常ステップサイズSGDの解析:漸近正規性とバイアス
- Authors: Lu Yu, Krishnakumar Balasubramanian, Stanislav Volgushev, and Murat A.
Erdogdu
- Abstract要約: 臨界点が好ましい統計特性を持つ構造化された非学習問題は、統計機械学習において頻繁に発生する。
我々は,SGDアルゴリズムが実際に広く利用されていることを示す。
- 参考スコア(独自算出の注目度): 17.199063087458907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structured non-convex learning problems, for which critical points have
favorable statistical properties, arise frequently in statistical machine
learning. Algorithmic convergence and statistical estimation rates are
well-understood for such problems. However, quantifying the uncertainty
associated with the underlying training algorithm is not well-studied in the
non-convex setting. In order to address this shortcoming, in this work, we
establish an asymptotic normality result for the constant step size stochastic
gradient descent (SGD) algorithm--a widely used algorithm in practice.
Specifically, based on the relationship between SGD and Markov Chains [DDB19],
we show that the average of SGD iterates is asymptotically normally distributed
around the expected value of their unique invariant distribution, as long as
the non-convex and non-smooth objective function satisfies a dissipativity
property. We also characterize the bias between this expected value and the
critical points of the objective function under various local regularity
conditions. Together, the above two results could be leveraged to construct
confidence intervals for non-convex problems that are trained using the SGD
algorithm.
- Abstract(参考訳): 臨界点が好ましい統計特性を持つ構造化非凸学習問題は、統計的機械学習において頻繁に発生する。
アルゴリズム収束と統計的推定率はそのような問題に対してよく理解されている。
しかしながら、基礎となるトレーニングアルゴリズムに関連する不確かさの定量化は、非凸設定では十分に研究されていない。
この欠点に対処するため,本研究では,定ステップサイズ確率勾配降下法 (sgd) アルゴリズムの漸近正規性(漸近正規性)を定式化する。
具体的には、SGD と Markov Chains [DDB19] の関係に基づき、SGD の反復平均が、非凸かつ非滑らかな目的関数が解離性を満たす限り、その特異な不変分布の期待値の周りに漸近的に分布していることを示す。
また, この期待値と対象関数の臨界点とのバイアスを, 様々な局所正規性条件下で特徴付ける。
これら2つの結果は、sgdアルゴリズムを用いて訓練された非凸問題に対する信頼区間を構築するために利用できる。
関連論文リスト
- Stability and Generalization of the Decentralized Stochastic Gradient
Descent Ascent Algorithm [80.94861441583275]
本稿では,分散勾配勾配(D-SGDA)アルゴリズムの一般化境界の複雑さについて検討する。
本研究は,D-SGDAの一般化における各因子の影響を解析した。
また、最適凸凹設定を得るために一般化とバランスをとる。
論文 参考訳(メタデータ) (2023-10-31T11:27:01Z) - Accelerated stochastic approximation with state-dependent noise [7.4648480208501455]
勾配観測における2次雑音に対する一般仮定の下での滑らかな凸最適化問題を考察する。
このような問題は、統計学におけるよく知られた一般化された線形回帰問題において、様々な応用において自然に発生する。
SAGDとSGEは、適切な条件下で、最適収束率を達成することを示す。
論文 参考訳(メタデータ) (2023-07-04T06:06:10Z) - Benign Underfitting of Stochastic Gradient Descent [72.38051710389732]
本研究では,適切な学習データを得ることで,一般化性能を実現する「従来型」学習ルールとして,勾配降下度(SGD)がどの程度理解されるかを検討する。
類似現象が起こらない近縁な交換SGDを解析し、その集団リスクが実際に最適な速度で収束することを証明する。
論文 参考訳(メタデータ) (2022-02-27T13:25:01Z) - On the Convergence of mSGD and AdaGrad for Stochastic Optimization [0.696125353550498]
凸降下(SGD)は、過去10年間に機械学習に大きく開発され、広く応用されてきた。
モーメントベースのSGD(mSGD)や適応的勾配最適化(AdaGrad)など、多くの競合や応用においてSGDよりも優れている修正SGD型アルゴリズムもある。
我々は,機械学習における任意の滑らかな(不可能かもしれない)損失関数に対するmSGDとAdaGradの収束解析に着目する。
論文 参考訳(メタデータ) (2022-01-26T22:02:21Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Stochastic optimization with momentum: convergence, fluctuations, and
traps avoidance [0.0]
本稿では,重球法,ネステロフ加速勾配法(S-NAG),広く使用されているアダム法など,勾配勾配勾配のいくつかの変種を統一する一般最適化手法について検討する。
この回避は、非自明な常微分方程式のノイズ離散化として研究される。
論文 参考訳(メタデータ) (2020-12-07T19:14:49Z) - Practical Precoding via Asynchronous Stochastic Successive Convex
Approximation [8.808993671472349]
凸非平滑正規化器を用いた滑らかな非研究損失関数の最適化について検討する。
本研究では、SCAアルゴリズムを詳しく検討し、無線ネットワークにおけるリソース割り当てのための非同期版を開発する。
論文 参考訳(メタデータ) (2020-10-03T13:53:30Z) - Instability, Computational Efficiency and Statistical Accuracy [101.32305022521024]
我々は,人口レベルでのアルゴリズムの決定論的収束率と,$n$サンプルに基づく経験的対象に適用した場合の(不安定性)の間の相互作用に基づいて,統計的精度を得るフレームワークを開発する。
本稿では,ガウス混合推定,非線形回帰モデル,情報的非応答モデルなど,いくつかの具体的なモデルに対する一般結果の応用について述べる。
論文 参考訳(メタデータ) (2020-05-22T22:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。