論文の概要: Optimal Stochastic Non-smooth Non-convex Optimization through
Online-to-Non-convex Conversion
- arxiv url: http://arxiv.org/abs/2302.03775v1
- Date: Tue, 7 Feb 2023 22:09:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 17:59:59.463461
- Title: Optimal Stochastic Non-smooth Non-convex Optimization through
Online-to-Non-convex Conversion
- Title(参考訳): オンライン対非凸変換による確率的非滑らかな最適化
- Authors: Ashok Cutkosky, Harsh Mehta, Francesco Orabona
- Abstract要約: 本稿では,新しい解析手法を用いて,未知の非平滑な目的を最適化するアルゴリズムを提案する。
決定論的二階スムーズな目的のために、先進的な楽観的なオンライン学習技術を適用することで、新しい$O(delta0.5)All$が最適または最もよく知られた結果の回復を可能にする。
- 参考スコア(独自算出の注目度): 56.92236659731376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present new algorithms for optimizing non-smooth, non-convex stochastic
objectives based on a novel analysis technique. This improves the current
best-known complexity for finding a $(\delta,\epsilon)$-stationary point from
$O(\epsilon^{-4}\delta^{-1})$ stochastic gradient queries to
$O(\epsilon^{-3}\delta^{-1})$, which we also show to be optimal. Our primary
technique is a reduction from non-smooth non-convex optimization to online
learning, after which our results follow from standard regret bounds in online
learning. For deterministic and second-order smooth objectives, applying more
advanced optimistic online learning techniques enables a new complexity of
$O(\epsilon^{-1.5}\delta^{-0.5})$. Our techniques also recover all optimal or
best-known results for finding $\epsilon$ stationary points of smooth or
second-order smooth objectives in both stochastic and deterministic settings.
- Abstract(参考訳): 本稿では,新しい解析手法に基づき,非スムース,非凸確率目的を最適化する新しいアルゴリズムを提案する。
これにより、現在最もよく知られている、$(\delta,\epsilon)$-stationary point を$o(\epsilon^{-4}\delta^{-1})$ 確率的勾配クエリから$o(\epsilon^{-3}\delta^{-1})$ に求めるための複雑さが改善される。
我々の主要な手法は、非滑らかな非凸最適化からオンライン学習への還元であり、その結果はオンライン学習における標準的な後悔の限界から導かれる。
決定論的および二階スムーズな目的に対して、より先進的な楽観的なオンライン学習手法を適用することで、$O(\epsilon^{-1.5}\delta^{-0.5})$の新しい複雑さを実現することができる。
また, 確率的, 決定論的両設定において, 定常点$$\epsilon$のスムーズな2次スムーズな目標を求めるために, 最適あるいは最もよく知られたすべての結果を復元する。
関連論文リスト
- Online Optimization Perspective on First-Order and Zero-Order Decentralized Nonsmooth Nonconvex Stochastic Optimization [8.670873561640903]
分散環境下での非平滑な非平滑な目的に対する(delta,,ilon$)-定常点の有限時間解析について検討する。
$Oは分散非滑らかな最適化のための最初の有限時間保証である。
論文 参考訳(メタデータ) (2024-06-03T16:09:34Z) - An Algorithm with Optimal Dimension-Dependence for Zero-Order Nonsmooth Nonconvex Stochastic Optimization [37.300102993926046]
リプシッツの目的の滑らかな点も凸点も生成しない点の複雑さについて検討する。
私たちの分析は単純だが強力だ。
Goldstein-subdifferential set, これは最近の進歩を可能にする。
非滑らかな非最適化
論文 参考訳(メタデータ) (2023-07-10T11:56:04Z) - Variance-reduced Clipping for Non-convex Optimization [24.765794811146144]
グラディエント・クリッピング(Gradient clipping)は、大規模言語モデリングのようなディープラーニングアプリケーションで用いられる技法である。
最近の実験的な訓練は、秩序の複雑さを緩和する、非常に特別な振る舞いを持っている。
論文 参考訳(メタデータ) (2023-03-02T00:57:38Z) - Deterministic Nonsmooth Nonconvex Optimization [94.01526844386977]
次元自由な次元自由アルゴリズムを得るにはランダム化が必要であることを示す。
我々のアルゴリズムは、ReLUネットワークを最適化する最初の決定論的次元自由アルゴリズムを得る。
論文 参考訳(メタデータ) (2023-02-16T13:57:19Z) - A Fully First-Order Method for Stochastic Bilevel Optimization [8.663726907303303]
一階勾配オラクルのみが利用できる場合、制約のない二段階最適化問題を考える。
完全一階近似法(F2SA)を提案し,その非漸近収束特性について検討する。
MNISTデータハイパクリーニング実験において,既存の2次手法よりも提案手法の実用性能が優れていることを示す。
論文 参考訳(メタデータ) (2023-01-26T05:34:21Z) - BiAdam: Fast Adaptive Bilevel Optimization Methods [104.96004056928474]
バイレベル最適化は多くの応用のために機械学習への関心が高まっている。
制約付き最適化と制約なし最適化の両方に有用な分析フレームワークを提供する。
論文 参考訳(メタデータ) (2021-06-21T20:16:40Z) - Oracle Complexity in Nonsmooth Nonconvex Optimization [49.088972349825085]
円滑で有界な$$stationaryポイントを考えると、Oracleベースのメソッドは円滑さの円滑な近似を見つけることができることがよく知られている。
本稿では,最適化と平滑化次元とのトレードオフを実証する。
論文 参考訳(メタデータ) (2021-04-14T10:42:45Z) - Gradient Free Minimax Optimization: Variance Reduction and Faster
Convergence [120.9336529957224]
本稿では、勾配のないミニマックス最適化問題の大きさを非強設定で表現する。
本稿では,新しいゼロ階分散還元降下アルゴリズムが,クエリの複雑さを最もよく表すことを示す。
論文 参考訳(メタデータ) (2020-06-16T17:55:46Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。