論文の概要: Near-Optimal Methods for Minimizing Star-Convex Functions and Beyond
- arxiv url: http://arxiv.org/abs/1906.11985v3
- Date: Fri, 24 Feb 2023 06:15:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 04:33:34.800889
- Title: Near-Optimal Methods for Minimizing Star-Convex Functions and Beyond
- Title(参考訳): スターコンベックス関数の最小化と超越化のための準最適手法
- Authors: Oliver Hinder and Aaron Sidford and Nimit S. Sohoni
- Abstract要約: 我々は,一階述語法では改善できないことを示した。
我々は、$$quasar のアログ関数を計算する変種加速降下を開発する。
ファーストオーダーの方法では改善できません。
- 参考スコア(独自算出の注目度): 25.845034951660544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we provide near-optimal accelerated first-order methods for
minimizing a broad class of smooth nonconvex functions that are strictly
unimodal on all lines through a minimizer. This function class, which we call
the class of smooth quasar-convex functions, is parameterized by a constant
$\gamma \in (0,1]$, where $\gamma = 1$ encompasses the classes of smooth convex
and star-convex functions, and smaller values of $\gamma$ indicate that the
function can be "more nonconvex." We develop a variant of accelerated gradient
descent that computes an $\epsilon$-approximate minimizer of a smooth
$\gamma$-quasar-convex function with at most $O(\gamma^{-1} \epsilon^{-1/2}
\log(\gamma^{-1} \epsilon^{-1}))$ total function and gradient evaluations. We
also derive a lower bound of $\Omega(\gamma^{-1} \epsilon^{-1/2})$ on the
worst-case number of gradient evaluations required by any deterministic
first-order method, showing that, up to a logarithmic factor, no deterministic
first-order method can improve upon ours.
- Abstract(参考訳): 本稿では,全直線に厳密なユニモーダルな滑らかな非凸関数の広いクラスを最小化するための近似最適加速度一階法を提案する。
この函数クラスは滑らかな準凸函数のクラスと呼ばれ、定数 $\gamma \in (0,1]$ でパラメータ化され、$\gamma = 1$ は滑らかな凸函数と星-凸函数のクラスを包含し、$\gamma$ の小さい値は函数が「より非凸」であることを示している。
我々は,最大$o(\gamma^{-1} \epsilon^{-1/2} \log(\gamma^{-1} \epsilon^{-1}))$の全関数と勾配評価の滑らかな$\gamma$-quasar-convex関数の$\epsilon$-approximate minimumrを計算する,加速度勾配降下の変種を開発した。
また、決定論的一階法が要求する勾配評価の最悪のケース数に対して、$\Omega(\gamma^{-1} \epsilon^{-1/2})$の低い境界を導出し、対数係数まで、決定論的一階法は改善できないことを示す。
関連論文リスト
- Complexity of Minimizing Projected-Gradient-Dominated Functions with Stochastic First-order Oracles [38.45952947660789]
本稿では,$(alpha,tau,mathcal)$-projected-dominanceプロパティの下で関数を最小化する一階法の性能限界について検討する。
論文 参考訳(メタデータ) (2024-08-03T18:34:23Z) - A simple and improved algorithm for noisy, convex, zeroth-order optimisation [59.51990161522328]
我々は、$f(hat x)$ ができるだけ小さいような点 $hat xin barmathcal X$ を返すアルゴリズムを構築している。
この方法は、$f(hat x) - min_xin barmathcal X f(x)$ が、多対数項まで$d2/sqrtn$ より小さい順序であることを証明する。
論文 参考訳(メタデータ) (2024-06-26T18:19:10Z) - Beyond Uniform Smoothness: A Stopped Analysis of Adaptive SGD [38.221784575853796]
この研究は、勾配を用いて潜在的に一定の滑らかさを持つ非アトー関数の1次定常点を求める問題を考える。
我々は、ノイズに一様境界を仮定することなく$mathcalO(fracmathrmpolylog(T)sigmatT)$収束率を証明できる技術を開発した。
論文 参考訳(メタデータ) (2023-02-13T18:13:36Z) - Estimating the minimizer and the minimum value of a regression function
under passive design [72.85024381807466]
最小値 $boldsymbolx*$ と最小値 $f*$ を滑らかで凸な回帰関数 $f$ で推定する新しい手法を提案する。
2次リスクと$boldsymbolz_n$の最適化誤差、および$f*$を推定するリスクについて、漸近的でない上界を導出する。
論文 参考訳(メタデータ) (2022-11-29T18:38:40Z) - Lifted Primal-Dual Method for Bilinearly Coupled Smooth Minimax
Optimization [47.27237492375659]
双線型結合されたミニマックス問題:$min_x max_y f(x) + ytop A x - h(y)$, ここでは$f$と$h$はどちらも強凸滑らかな関数である。
Omega(sqrtfracL_xmu_x + frac|A|sqrtmu_x,mu_y) log(frac1vareps) の低い複雑性境界を達成した1次アルゴリズムは知られていない。
論文 参考訳(メタデータ) (2022-01-19T05:56:19Z) - Continuous Submodular Maximization: Boosting via Non-oblivious Function [12.755674710719616]
本稿では、オフラインおよびオンライン設定の両方において制約付きおよび連続的なサブモジュールイテレーションを再考する。
係数回帰最適化方程式を用いて、問題$max_boldsymbolxinmathCf(boldsymbolx)$に対して最適な補助関数$F$を導出する。
オンライン環境では、勾配フィードバックアルゴリズムの強化を提案し、$sqrtD$($D$は勾配フィードバックが$(fracgamma2)$に対する遅延の総和である)を後悔する。
論文 参考訳(メタデータ) (2022-01-03T15:10:17Z) - A first-order primal-dual method with adaptivity to local smoothness [64.62056765216386]
凸凹対象 $min_x max_y f(x) + langle Ax, yrangle - g*(y)$, ここで、$f$ は局所リプシッツ勾配を持つ凸関数であり、$g$ は凸かつ非滑らかである。
主勾配ステップと2段ステップを交互に交互に行うCondat-Vuアルゴリズムの適応バージョンを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:19:30Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - Gradient Free Minimax Optimization: Variance Reduction and Faster
Convergence [120.9336529957224]
本稿では、勾配のないミニマックス最適化問題の大きさを非強設定で表現する。
本稿では,新しいゼロ階分散還元降下アルゴリズムが,クエリの複雑さを最もよく表すことを示す。
論文 参考訳(メタデータ) (2020-06-16T17:55:46Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。