論文の概要: Notes on Worst-case Inefficiency of Gradient Descent Even in R^2
- arxiv url: http://arxiv.org/abs/2008.07513v2
- Date: Mon, 15 Aug 2022 19:59:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 03:08:25.250696
- Title: Notes on Worst-case Inefficiency of Gradient Descent Even in R^2
- Title(参考訳): R^2におけるグラディエント蛍光の最悪の非効率について
- Authors: Shiliang Zuo
- Abstract要約: 凸設定では、勾配降下はサドルポイントを指数関数的に逃がし、サドルドラーを最小限に抑えることができる。
近年の摂動勾配降下法は, サドルポイントを効率的に回避するのに十分である。
本稿では,非病理学的な2次元関数を持つサドル点から退避するには勾配降下に時間がかかるという否定的な結果を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient descent is a popular algorithm in optimization, and its performance
in convex settings is mostly well understood. In non-convex settings, it has
been shown that gradient descent is able to escape saddle points asymptotically
and converge to local minimizers [Lee et. al. 2016]. Recent studies also show a
perturbed version of gradient descent is enough to escape saddle points
efficiently [Jin et. al. 2015, Ge et. al. 2017]. In this paper we show a
negative result: gradient descent may take exponential time to escape saddle
points, with non-pathological two dimensional functions. While our focus is
theoretical, we also conduct experiments verifying our theoretical result.
Through our analysis we demonstrate that stochasticity is essential to escape
saddle points efficiently.
- Abstract(参考訳): 勾配降下は最適化において一般的なアルゴリズムであり、凸設定における性能はほとんどよく理解されている。
非凸設定では、勾配降下は漸近的にサドル点を脱出し、局所最小化子 [lee et. al. 2016] に収束できることが示されている。
最近の研究では、勾配降下の摂動バージョンは、効率的にサドルポイントを逃れるには十分であることが示されている[Jin et al. 2015 Ge et al. 2017]。
勾配降下は,非病理学的2次元関数を持つサドル点から脱出するのに指数関数的な時間を要する可能性がある。
我々の焦点は理論的だが、理論結果を検証する実験も行っている。
解析を通して,サドルポイントを効率的に回避するためには,確率性が不可欠であることを示す。
関連論文リスト
- The Equalization Losses: Gradient-Driven Training for Long-tailed Object
Recognition [84.51875325962061]
本稿では,長距離問題に対処するための勾配駆動型学習機構を提案する。
我々は、勾配駆動損失関数の新たなファミリー、すなわち等化損失を導入する。
我々の手法は一貫してベースラインモデルより優れています。
論文 参考訳(メタデータ) (2022-10-11T16:00:36Z) - On the influence of roundoff errors on the convergence of the gradient
descent method with low-precision floating-point computation [0.0]
ゼロバイアス特性を小さな勾配を維持する確率で交換する新しいラウンドリング方式を提案する。
提案手法は,各イテレーションにおいて降下方向にある一定の丸みバイアスを生じさせる。
論文 参考訳(メタデータ) (2022-02-24T18:18:20Z) - On Training Implicit Models [75.20173180996501]
ファントム勾配(ファントム勾配)と呼ばれる暗黙モデルに対する新しい勾配推定法を提案し、正確な勾配の計算コストを抑える。
大規模タスクの実験では、これらの軽量ファントム勾配が暗黙の訓練モデルの後方通過を約1.7倍加速することを示した。
論文 参考訳(メタデータ) (2021-11-09T14:40:24Z) - High-probability Bounds for Non-Convex Stochastic Optimization with
Heavy Tails [55.561406656549686]
我々は、勾配推定が末尾を持つ可能性のある一階アルゴリズムを用いたヒルベルト非最適化を考える。
本研究では, 勾配, 運動量, 正規化勾配勾配の収束を高確率臨界点に収束させることと, 円滑な損失に対する最もよく知られた繰り返しを示す。
論文 参考訳(メタデータ) (2021-06-28T00:17:01Z) - Decreasing scaling transition from adaptive gradient descent to
stochastic gradient descent [1.7874193862154875]
本稿では,適応勾配降下法から勾配勾配降下法DSTAdaへのスケーリング遷移を減少させる手法を提案する。
実験の結果,DSTAdaは高速で精度が高く,安定性と堅牢性も向上した。
論文 参考訳(メタデータ) (2021-06-12T11:28:58Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Reparametrizing gradient descent [0.0]
本稿では,ノルム適応勾配勾配という最適化アルゴリズムを提案する。
我々のアルゴリズムは準ニュートン法と比較することもできるが、定常点ではなく根を求める。
論文 参考訳(メタデータ) (2020-10-09T20:22:29Z) - Agnostic Learning of Halfspaces with Gradient Descent via Soft Margins [92.7662890047311]
勾配降下は、分類誤差$tilde O(mathsfOPT1/2) + varepsilon$ in $mathrmpoly(d,1/varepsilon)$ time and sample complexity.
論文 参考訳(メタデータ) (2020-10-01T16:48:33Z) - Implicit Gradient Regularization [18.391141066502644]
勾配降下は、過度に適合せず、明示的な正規化もなく、ディープニューラルネットワークを最適化するのに驚くほど適しています。
我々はImplicit Gradient Regularization (IGR)と呼び、後方誤差解析を用いて正規化のサイズを計算する。
論文 参考訳(メタデータ) (2020-09-23T14:17:53Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。