論文の概要: Escape saddle points by a simple gradient-descent based algorithm
- arxiv url: http://arxiv.org/abs/2111.14069v1
- Date: Sun, 28 Nov 2021 07:32:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 16:34:35.841687
- Title: Escape saddle points by a simple gradient-descent based algorithm
- Title(参考訳): 簡易勾配descent based アルゴリズムによるエスケープサドルポイント
- Authors: Chenyi Zhang, Tongyang Li
- Abstract要約: 非最適化において、サドルポイントのエスケープは中心的な研究トピックである。
滑らかな関数 $fcolonmathbbRntomathbbR$ に対して、$epsilonO(log n)2/epsilon4)$ を出力する。
技術的に、我々の主な貢献は勾配のみを用いたロバストなヘッセンパワー手法の実装である。
- 参考スコア(独自算出の注目度): 6.7298812735467095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Escaping saddle points is a central research topic in nonconvex optimization.
In this paper, we propose a simple gradient-based algorithm such that for a
smooth function $f\colon\mathbb{R}^n\to\mathbb{R}$, it outputs an
$\epsilon$-approximate second-order stationary point in $\tilde{O}(\log
n/\epsilon^{1.75})$ iterations. Compared to the previous state-of-the-art
algorithms by Jin et al. with $\tilde{O}((\log n)^{4}/\epsilon^{2})$ or
$\tilde{O}((\log n)^{6}/\epsilon^{1.75})$ iterations, our algorithm is
polynomially better in terms of $\log n$ and matches their complexities in
terms of $1/\epsilon$. For the stochastic setting, our algorithm outputs an
$\epsilon$-approximate second-order stationary point in $\tilde{O}((\log
n)^{2}/\epsilon^{4})$ iterations. Technically, our main contribution is an idea
of implementing a robust Hessian power method using only gradients, which can
find negative curvature near saddle points and achieve the polynomial speedup
in $\log n$ compared to the perturbed gradient descent methods. Finally, we
also perform numerical experiments that support our results.
- Abstract(参考訳): サドル点のエスケープは、非凸最適化における中心的な研究トピックである。
本稿では,滑らかな関数 $f\colon\mathbb{r}^n\to\mathbb{r}$ に対して,$\tilde{o}(\log n/\epsilon^{1.75})$ の反復で$\epsilon$-approximate 2次定常点を出力する単純な勾配に基づくアルゴリズムを提案する。
これまでのJinらによる最先端のアルゴリズムと$\tilde{O}((\log n)^{4}/\epsilon^{2})$または$\tilde{O}((\log n)^{6}/\epsilon^{1.75})$イテレーションと比較すると、我々のアルゴリズムは$\log n$の点で多項式的に優れている。
確率的な設定では、アルゴリズムは$\tilde{o}((\log n)^{2}/\epsilon^{4})$イテレーションで$\epsilon$-approximate 2-order stationary pointを出力する。
理論的には,摂動勾配降下法と比較して,サドル点付近で負曲率を求めることができ,多項式速度を$\log n$で達成できるような勾配のみを用いて,強固なヘッセン力法を実装するというアイデアが大きな貢献である。
また,結果を支持する数値実験も行った。
関連論文リスト
- Quantum spectral method for gradient and Hessian estimation [4.193480001271463]
勾配降下は連続最適化問題を解くための最も基本的なアルゴリズムの1つである。
本稿では、クエリの複雑さを$widetildeO (1/varepsilon)$とすることで、その勾配の$varepsilon$-approximationを返す量子アルゴリズムを提案する。
また、ニュートン法の量子アナログを改善することを目的としたヘッセン推定のための2つの量子アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-04T11:03:48Z) - Efficient Continual Finite-Sum Minimization [52.5238287567572]
連続有限サム最小化(continuous finite-sum minimization)と呼ばれる有限サム最小化の鍵となるツイストを提案する。
我々のアプローチは$mathcalO(n/epsilon)$ FOs that $mathrmStochasticGradientDescent$で大幅に改善されます。
また、$mathcalOleft(n/epsilonalpharight)$ complexity gradient for $alpha 1/4$という自然な一階法は存在しないことを証明し、この方法の第一階法がほぼ密であることを示す。
論文 参考訳(メタデータ) (2024-06-07T08:26:31Z) - Solving Dense Linear Systems Faster Than via Preconditioning [1.8854491183340518]
我々のアルゴリズムは$tilde O(n2)$ if $k=O(n0.729)$であることを示す。
特に、我々のアルゴリズムは$tilde O(n2)$ if $k=O(n0.729)$である。
主アルゴリズムはランダム化ブロック座標降下法とみなすことができる。
論文 参考訳(メタデータ) (2023-12-14T12:53:34Z) - Quantum speedups for linear programming via interior point methods [1.8434042562191815]
本稿では,$d$変数上の不等式制約で線形プログラムを解く量子アルゴリズムについて述べる。
我々のアルゴリズムは、リーとシドフォードの最先端インテリアポイント法におけるニュートンステップを高速化する。
論文 参考訳(メタデータ) (2023-11-06T16:00:07Z) - ReSQueing Parallel and Private Stochastic Convex Optimization [59.53297063174519]
本稿では,BFG凸最適化(SCO: Reweighted Query (ReSQue) 推定ツールを提案する。
我々はSCOの並列およびプライベート設定における最先端の複雑さを実現するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-01T18:51:29Z) - Decomposable Non-Smooth Convex Optimization with Nearly-Linear Gradient
Oracle Complexity [15.18055488087588]
上記の凸定式化を$widetildeO(sum_i=1n d_i log (1 /epsilon))$グラデーション計算で$epsilon$-accuracyに最小化するアルゴリズムを与える。
我々の主な技術的貢献は、カットプレーン法とインテリアポイント法を組み合わせた新しい組み合わせにより、各イテレーションで$f_i$項を選択する適応的な手順である。
論文 参考訳(メタデータ) (2022-08-07T20:53:42Z) - The First Optimal Algorithm for Smooth and
Strongly-Convex-Strongly-Concave Minimax Optimization [88.91190483500932]
本稿では,スムーズで強靭なミニマックス最適化問題を再考する。
既存の最先端メソッドは、下限の$Omegaleft(sqrtkappa_xkappa_ylog3 (kappa_xkappa_y)logfrac1epsilonright)$にマッチしない。
我々は、$mathcalOleft( sqrtkappa_xkappa_ylog)で最初のアルゴリズムを提供することで、この根本的な問題を解決する。
論文 参考訳(メタデータ) (2022-05-11T17:33:07Z) - Sketching Algorithms and Lower Bounds for Ridge Regression [65.0720777731368]
リッジ回帰問題に対する1+varepsilon$近似解を計算するスケッチベース反復アルゴリズムを提案する。
また,このアルゴリズムがカーネルリッジ回帰の高速化に有効であることを示す。
論文 参考訳(メタデータ) (2022-04-13T22:18:47Z) - Private Stochastic Convex Optimization: Optimal Rates in $\ell_1$
Geometry [69.24618367447101]
対数要因まで $(varepsilon,delta)$-differently private の最適過剰人口損失は $sqrtlog(d)/n + sqrtd/varepsilon n.$ です。
損失関数がさらなる滑らかさの仮定を満たすとき、余剰損失は$sqrtlog(d)/n + (log(d)/varepsilon n)2/3で上界(対数因子まで)であることが示される。
論文 参考訳(メタデータ) (2021-03-02T06:53:44Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。