論文の概要: Stopping Criteria for, and Strong Convergence of, Stochastic Gradient
Descent on Bottou-Curtis-Nocedal Functions
- arxiv url: http://arxiv.org/abs/2004.00475v2
- Date: Thu, 1 Apr 2021 16:35:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 19:30:39.670640
- Title: Stopping Criteria for, and Strong Convergence of, Stochastic Gradient
Descent on Bottou-Curtis-Nocedal Functions
- Title(参考訳): Bottou-Curtis-Nocedal 関数における確率勾配の停止基準と強い収束性
- Authors: Vivak Patel
- Abstract要約: 勾配Descent法(SGD)の停止基準は、非サイズ関数の解析にしばしば用いられる。
我々は,非サイズの関数とボットゥー・ノッセダル関数を解析するのに使用できる基準を開発する。
我々の研究の結果、我々の研究は新たな適応的なステップスキームの開発に利用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stopping criteria for Stochastic Gradient Descent (SGD) methods play
important roles from enabling adaptive step size schemes to providing rigor for
downstream analyses such as asymptotic inference. Unfortunately, current
stopping criteria for SGD methods are often heuristics that rely on asymptotic
normality results or convergence to stationary distributions, which may fail to
exist for nonconvex functions and, thereby, limit the applicability of such
stopping criteria. To address this issue, in this work, we rigorously develop
two stopping criteria for SGD that can be applied to a broad class of nonconvex
functions, which we term Bottou-Curtis-Nocedal functions. Moreover, as a
prerequisite for developing these stopping criteria, we prove that the gradient
function evaluated at SGD's iterates converges strongly to zero for
Bottou-Curtis-Nocedal functions, which addresses an open question in the SGD
literature. As a result of our work, our rigorously developed stopping criteria
can be used to develop new adaptive step size schemes or bolster other
downstream analyses for nonconvex functions.
- Abstract(参考訳): 確率勾配降下法(sgd)法の停止基準は、適応的なステップサイズスキームの実現から漸近的推論のような下流解析の厳密化まで重要な役割を果たす。
残念なことに、sgd法の現在の停止基準は、漸近正規性結果や定常分布への収束に依存するヒューリスティックであり、これは非凸関数には存在せず、そのような停止基準の適用性を制限する可能性がある。
この問題に対処するため,本研究では,bottou-curtis-nocedal関数と呼ばれる幅広い非凸関数に適用可能なsgdの2つの停止基準を厳格に開発する。
さらに、これらの停止基準を開発するための前提条件として、SGD の反復度で評価された勾配関数が、SGD 文学における開問題に対処するボットゥー・カルティス・ノッセアル関数に対してゼロに強く収束することを証明する。
本研究の成果は,新たな適応的なステップサイズスキームの開発や,非凸関数の下流解析の強化に,厳格に開発した停止基準を用いることである。
関連論文リスト
- Inference on Strongly Identified Functionals of Weakly Identified
Functions [71.42652863687117]
本研究では,ニュアンス関数が存在しない場合でも,関数を強く識別するための新しい条件について検討する。
本稿では,プライマリおよびデバイアスのニュアンス関数に対するペナル化ミニマックス推定器を提案する。
論文 参考訳(メタデータ) (2022-08-17T13:38:31Z) - Stochastic Gradient Descent-Ascent and Consensus Optimization for Smooth
Games: Convergence Analysis under Expected Co-coercivity [49.66890309455787]
本稿では,SGDA と SCO の最終的な収束保証として,期待されるコヒーレンシティ条件を導入し,その利点を説明する。
定常的なステップサイズを用いた場合、両手法の線形収束性を解の近傍に証明する。
我々の収束保証は任意のサンプリングパラダイムの下で保たれ、ミニバッチの複雑さに関する洞察を与える。
論文 参考訳(メタデータ) (2021-06-30T18:32:46Z) - Policy Gradient for Continuing Tasks in Non-stationary Markov Decision
Processes [112.38662246621969]
強化学習は、マルコフ決定プロセスにおいて期待される累積報酬を最大化するポリシーを見つけることの問題を考える。
我々は、ポリシーを更新するために上昇方向として使用する値関数の偏りのないナビゲーション勾配を計算する。
ポリシー勾配型アルゴリズムの大きな欠点は、定常性の仮定が課せられない限り、それらがエピソジックなタスクに限定されていることである。
論文 参考訳(メタデータ) (2020-10-16T15:15:42Z) - ROOT-SGD: Sharp Nonasymptotics and Near-Optimal Asymptotics in a Single Algorithm [71.13558000599839]
第一次アルゴリズムを用いて,厳密な凸と滑らかな非制約最適化問題の解法について検討する。
我々は,過去の勾配を平均化し,実装が容易な小説「Recursive One-Over-T SGD」を考案した。
有限サンプル, 漸近感覚, 感覚の両面において, 最先端の性能を同時に達成できることを実証する。
論文 参考訳(メタデータ) (2020-08-28T14:46:56Z) - On Lower Bounds for Standard and Robust Gaussian Process Bandit
Optimization [55.937424268654645]
有界ノルムを持つ関数のブラックボックス最適化問題に対するアルゴリズム非依存な下界を考える。
本稿では, 単純さ, 汎用性, エラー確率への依存性の向上など, 後悔の下位境界を導出するための新しい証明手法を提案する。
論文 参考訳(メタデータ) (2020-08-20T03:48:14Z) - An improved convergence analysis for decentralized online stochastic
non-convex optimization [17.386715847732468]
本稿では,GT-Loakjasiewics(GT-Loakjasiewics)と呼ばれる手法が,GT-Loakjasiewics(GT-Loakjasiewics)が現在の収束率を満たすことを示す。
結果はすぐに適用できるだけでなく、現在知られている最高の収束率にも適用できる。
論文 参考訳(メタデータ) (2020-08-10T15:29:13Z) - Fine-Grained Analysis of Stability and Generalization for Stochastic
Gradient Descent [55.85456985750134]
我々は,SGDの反復的リスクによって制御される新しい境界を開発する,平均モデル安定性と呼ばれる新しい安定性尺度を導入する。
これにより、最良のモデルの振舞いによって一般化境界が得られ、低雑音環境における最初の既知の高速境界が導かれる。
我々の知る限りでは、このことはSGDの微分不能な損失関数でさえも初めて知られている安定性と一般化を与える。
論文 参考訳(メタデータ) (2020-06-15T06:30:19Z) - An Analysis of Constant Step Size SGD in the Non-convex Regime:
Asymptotic Normality and Bias [17.199063087458907]
臨界点が好ましい統計特性を持つ構造化された非学習問題は、統計機械学習において頻繁に発生する。
我々は,SGDアルゴリズムが実際に広く利用されていることを示す。
論文 参考訳(メタデータ) (2020-06-14T13:58:44Z) - Convergence rates and approximation results for SGD and its
continuous-time counterpart [16.70533901524849]
本稿では,非増加ステップサイズを有する凸勾配Descent (SGD) の完全理論的解析を提案する。
まず、結合を用いた不均一微分方程式(SDE)の解により、SGDを確実に近似できることを示す。
連続的手法による決定論的および最適化手法の最近の分析において, 連続過程の長期的挙動と非漸近的境界について検討する。
論文 参考訳(メタデータ) (2020-04-08T18:31:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。