論文の概要: The (1+1)-ES Reliably Overcomes Saddle Points
- arxiv url: http://arxiv.org/abs/2112.00888v3
- Date: Tue, 21 Jun 2022 10:35:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 04:24:37.921395
- Title: The (1+1)-ES Reliably Overcomes Saddle Points
- Title(参考訳): 1+1)-ESがサドルポイントを確実に上回る
- Authors: Tobias Glasmachers
- Abstract要約: この研究において、単純 (1+1)-ES でさえ、穏やかな正則性条件下では、ほとんどのサドル点を確実に克服する。
本分析は, 尾端境界を持つドリフトに基づくものであり, ドリフトに基づいて打点時間を推定することさえ目的としていないという点では, 標準的ではない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is known that step size adaptive evolution strategies (ES) do not converge
(prematurely) to regular points of continuously differentiable objective
functions. Among critical points, convergence to minima is desired, and
convergence to maxima is easy to exclude. However, surprisingly little is known
on whether ES can get stuck at a saddle point. In this work we establish that
even the simple (1+1)-ES reliably overcomes most saddle points under quite mild
regularity conditions. Our analysis is based on drift with tail bounds. It is
non-standard in that we do not even aim to estimate hitting times based on
drift. Rather, in our case it suffices to show that the relevant time is finite
with full probability.
- Abstract(参考訳): ステップサイズ適応進化戦略(ES)は、連続的に微分可能な目的関数の正則点に収束しないことが知られている。
臨界点のうち、極小点への収束が望まれ、極大点への収束は容易に排除できる。
しかし、ESがサドルポイントで立ち往生できるかどうかについては、驚くほどほとんど分かっていない。
この研究において、単純(1+1)-esでさえも、非常に穏やかな正規性条件下で、ほとんどの鞍点を確実に克服できると定めている。
我々の分析は尾境界のあるドリフトに基づいている。
ドリフトに基づいてヒットタイムを見積もることさえ意図していないという点では、非標準である。
むしろ、我々の場合、関連する時間は完全な確率で有限であることを示すのに十分である。
関連論文リスト
- Revisiting the Last-Iterate Convergence of Stochastic Gradient Methods [25.831462008050387]
グラディエント・Descent(SGD)アルゴリズムは、実際の性能が良く、理論的な理解が欠如していることから、人々の関心を喚起している。
有限収束がより広い合成最適化や非ユークリッドノルムに証明可能な拡張が可能かどうかはまだ不明である。
論文 参考訳(メタデータ) (2023-12-13T21:41:06Z) - Min-Max Optimization Made Simple: Approximating the Proximal Point
Method via Contraction Maps [77.8999425439444]
本稿では,凸/凹凸 min-max 問題に対して,ほぼ最適収束率を許容する一階法を提案する。
我々の研究は、近点法の更新規則を精度良く近似できるという事実に基づいている。
論文 参考訳(メタデータ) (2023-01-10T12:18:47Z) - A lower confidence sequence for the changing mean of non-negative right
heavy-tailed observations with bounded mean [9.289846887298854]
信頼シーケンスは、時間パラメトリックカバレッジ保証付き予測可能なパラメータシーケンスに対する適応されたセット列を生成する。
この研究は、スラックが0に収束するランニング平均条件付き期待値に対して、漸近的でない低CSを構成する。
論文 参考訳(メタデータ) (2022-10-20T09:50:05Z) - Generalized Optimistic Methods for Convex-Concave Saddle Point Problems [24.5327016306566]
この楽観的な手法は凸凹点問題の解法として人気が高まっている。
我々は,係数を知らずにステップサイズを選択するバックトラックライン探索手法を開発した。
論文 参考訳(メタデータ) (2022-02-19T20:31:05Z) - Sharp Bounds for Federated Averaging (Local SGD) and Continuous
Perspective [49.17352150219212]
Federated AveragingFedAvg(ローカルSGD)は、Federated Learning(FL)で最も人気のあるアルゴリズムの1つである。
微分方程式(SDE)の観点から、この量を解析する方法を示す。
論文 参考訳(メタデータ) (2021-11-05T22:16:11Z) - High-probability Bounds for Non-Convex Stochastic Optimization with
Heavy Tails [55.561406656549686]
我々は、勾配推定が末尾を持つ可能性のある一階アルゴリズムを用いたヒルベルト非最適化を考える。
本研究では, 勾配, 運動量, 正規化勾配勾配の収束を高確率臨界点に収束させることと, 円滑な損失に対する最もよく知られた繰り返しを示す。
論文 参考訳(メタデータ) (2021-06-28T00:17:01Z) - On the Almost Sure Convergence of Stochastic Gradient Descent in
Non-Convex Problems [75.58134963501094]
本稿では,勾配降下(SGD)の軌跡を解析する。
我々はSGDが厳格なステップサイズポリシーのために1ドルでサドルポイント/マニフォールドを避けることを示す。
論文 参考訳(メタデータ) (2020-06-19T14:11:26Z) - Linear Last-iterate Convergence in Constrained Saddle-point Optimization [48.44657553192801]
我々は、OGDA(Optimistic Gradient Descent Ascent)とOMWU(Optimistic Multiplicative Weights Update)に対する最終段階の独特さの理解を著しく拡大する。
平衡が一意である場合、線形終端収束は、値が普遍定数に設定された学習速度で達成されることを示す。
任意のポリトープ上の双線型ゲームがこの条件を満たすことを示し、OGDAは一意の平衡仮定なしで指数関数的に高速に収束することを示した。
論文 参考訳(メタデータ) (2020-06-16T20:53:04Z) - A Simple Convergence Proof of Adam and Adagrad [74.24716715922759]
我々はAdam Adagradと$O(d(N)/st)$アルゴリズムの収束の証明を示す。
Adamはデフォルトパラメータで使用する場合と同じ収束$O(d(N)/st)$で収束する。
論文 参考訳(メタデータ) (2020-03-05T01:56:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。