論文の概要: Near-Optimal High-Probability Convergence for Non-Convex Stochastic
Optimization with Variance Reduction
- arxiv url: http://arxiv.org/abs/2302.06032v1
- Date: Mon, 13 Feb 2023 00:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 17:01:15.820474
- Title: Near-Optimal High-Probability Convergence for Non-Convex Stochastic
Optimization with Variance Reduction
- Title(参考訳): 分散低減を伴う非凸確率最適化のための近最適高確率収束
- Authors: Zijian Liu, Perry Dong, Srikanth Jagabathula, Zhengyuan Zhou
- Abstract要約: 大規模分散における非還元最適化のための新しいアルゴリズムを提案する。
我々のアルゴリズムは$(T$delta)/分散の速度で収束することを示す。
これは最高の結果を得るための最初の高い確率のイテレーションです。
- 参考スコア(独自算出の注目度): 17.408563601880253
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional analyses for non-convex stochastic optimization problems
characterize convergence bounds in expectation, which is inadequate as it does
not supply a useful performance guarantee on a single run. Motivated by its
importance, an emerging line of literature has recently studied the
high-probability convergence behavior of several algorithms, including the
classic stochastic gradient descent (SGD). However, no high-probability results
are established for optimization algorithms with variance reduction, which is
known to accelerate the convergence process and has been the de facto
algorithmic technique for stochastic optimization at large. To close this
important gap, we introduce a new variance-reduced algorithm for non-convex
stochastic optimization, which we call Generalized SignSTORM. We show that with
probability at least $1-\delta$, our algorithm converges at the rate of
$O(\log(dT/\delta)/T^{1/3})$ after $T$ iterations where $d$ is the problem
dimension. This convergence guarantee matches the existing lower bound up to a
log factor, and to our best knowledge, is the first high-probability minimax
(near-)optimal result. Finally, we demonstrate the effectiveness of our
algorithm through numerical experiments.
- Abstract(参考訳): 非凸確率最適化問題に対する従来の解析は期待値の収束限界を特徴付けるが、これは単一の実行で有用な性能保証を提供しないため不適切である。
その重要性に動機づけられた最近の文献は、古典的確率勾配降下(sgd)を含むいくつかのアルゴリズムの高確率収束挙動を研究している。
しかし、収束過程を加速することが知られており、確率的最適化のデファクトなアルゴリズム技術である分散低減アルゴリズムについては、高い確率性が確立されていない。
この重要なギャップを埋めるために,非凸確率最適化のための分散低減アルゴリズムを提案する。
確率が少なくとも1-\delta$であれば、このアルゴリズムは問題次元が$d$であるような$t$イテレーションの後に$o(\log(dt/\delta)/t^{1/3})$の割合で収束する。
この収束保証は、ログ係数までの既存の下限と一致し、私たちの知る限り、最初の高確率(近)最適結果である。
最後に,数値実験によるアルゴリズムの有効性を示す。
関連論文リスト
- An Algorithm with Optimal Dimension-Dependence for Zero-Order Nonsmooth Nonconvex Stochastic Optimization [37.300102993926046]
リプシッツの目的の滑らかな点も凸点も生成しない点の複雑さについて検討する。
私たちの分析は単純だが強力だ。
Goldstein-subdifferential set, これは最近の進歩を可能にする。
非滑らかな非最適化
論文 参考訳(メタデータ) (2023-07-10T11:56:04Z) - An Oblivious Stochastic Composite Optimization Algorithm for Eigenvalue
Optimization Problems [76.2042837251496]
相補的な合成条件に基づく2つの難解なミラー降下アルゴリズムを導入する。
注目すべきは、どちらのアルゴリズムも、目的関数のリプシッツ定数や滑らかさに関する事前の知識なしで機能する。
本稿では,大規模半確定プログラム上での手法の効率性とロバスト性を示す。
論文 参考訳(メタデータ) (2023-06-30T08:34:29Z) - Breaking the Lower Bound with (Little) Structure: Acceleration in
Non-Convex Stochastic Optimization with Heavy-Tailed Noise [28.780192812703948]
重み付き雑音状態において、滑らかだが必ずしも凸な目標を持つ最適化問題を考察する。
簡単な構造しか持たない低境界の$Omega(Tfrac1-p3p-2)$よりも高速な速度が得られることを示す。
また、軽度条件下では、高い確率収束率が$O(log(T/delta)Tfrac1-p3p-2)$であることを保証する。
論文 参考訳(メタデータ) (2023-02-14T00:23:42Z) - Beyond Uniform Smoothness: A Stopped Analysis of Adaptive SGD [38.221784575853796]
この研究は、勾配を用いて潜在的に一定の滑らかさを持つ非アトー関数の1次定常点を求める問題を考える。
我々は、ノイズに一様境界を仮定することなく$mathcalO(fracmathrmpolylog(T)sigmatT)$収束率を証明できる技術を開発した。
論文 参考訳(メタデータ) (2023-02-13T18:13:36Z) - ReSQueing Parallel and Private Stochastic Convex Optimization [59.53297063174519]
本稿では,BFG凸最適化(SCO: Reweighted Query (ReSQue) 推定ツールを提案する。
我々はSCOの並列およびプライベート設定における最先端の複雑さを実現するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-01T18:51:29Z) - An Optimal Stochastic Algorithm for Decentralized Nonconvex Finite-sum
Optimization [25.21457349137344]
私たちは、DEARESTが少なくとも$mathcal O(+sqrtmnLvarepsilon-2)$ 1次オラクル(IFO)コールと$mathcal O(Lvarepsilon-2/sqrt1-lambda_W)$通信ラウンドを必要とすることを示す証拠を示します。
論文 参考訳(メタデータ) (2022-10-25T11:37:11Z) - Best Policy Identification in Linear MDPs [70.57916977441262]
縮退した線形マルコフ+デルタ決定における最適同定問題について, 生成モデルに基づく固定信頼度設定における検討を行った。
複雑な非最適化プログラムの解としての下位境界は、そのようなアルゴリズムを考案する出発点として用いられる。
論文 参考訳(メタデータ) (2022-08-11T04:12:50Z) - Optimal Gradient Sliding and its Application to Distributed Optimization
Under Similarity [121.83085611327654]
積 $r:=p + q$, ここで$r$は$mu$-strong convex類似性である。
エージェントの通信やローカルコールにマスターされた問題を解決する方法を提案する。
提案手法は$mathcalO(sqrtL_q/mu)$法よりもはるかにシャープである。
論文 参考訳(メタデータ) (2022-05-30T14:28:02Z) - Private Stochastic Convex Optimization: Optimal Rates in $\ell_1$
Geometry [69.24618367447101]
対数要因まで $(varepsilon,delta)$-differently private の最適過剰人口損失は $sqrtlog(d)/n + sqrtd/varepsilon n.$ です。
損失関数がさらなる滑らかさの仮定を満たすとき、余剰損失は$sqrtlog(d)/n + (log(d)/varepsilon n)2/3で上界(対数因子まで)であることが示される。
論文 参考訳(メタデータ) (2021-03-02T06:53:44Z) - Streaming Complexity of SVMs [110.63976030971106]
本稿では,ストリーミングモデルにおけるバイアス正規化SVM問題を解く際の空間複雑性について検討する。
両方の問題に対して、$frac1lambdaepsilon$の次元に対して、$frac1lambdaepsilon$よりも空間的に小さいストリーミングアルゴリズムを得ることができることを示す。
論文 参考訳(メタデータ) (2020-07-07T17:10:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。