論文の概要: Relative Lipschitzness in Extragradient Methods and a Direct Recipe for
Acceleration
- arxiv url: http://arxiv.org/abs/2011.06572v2
- Date: Thu, 15 Jul 2021 03:01:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 08:00:08.708596
- Title: Relative Lipschitzness in Extragradient Methods and a Direct Recipe for
Acceleration
- Title(参考訳): 超勾配法における相対リプシッツ性と加速度直接法
- Authors: Michael B. Cohen, Aaron Sidford, Kevin Tian
- Abstract要約: 我々は,滑らかな凸関数の1次最小化のために,標準的な指数関数法(ミラープロキシと双対外挿法)が最適加速率を回復することを示した。
我々はこの枠組みを一般化し、相対的なリプシッツネスの局所的およびランダムな概念を扱う。
- 参考スコア(独自算出の注目度): 30.369542816161378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that standard extragradient methods (i.e. mirror prox and dual
extrapolation) recover optimal accelerated rates for first-order minimization
of smooth convex functions. To obtain this result we provide a fine-grained
characterization of the convergence rates of extragradient methods for solving
monotone variational inequalities in terms of a natural condition we call
relative Lipschitzness. We further generalize this framework to handle local
and randomized notions of relative Lipschitzness and thereby recover rates for
box-constrained $\ell_\infty$ regression based on area convexity and complexity
bounds achieved by accelerated (randomized) coordinate descent for smooth
convex function minimization.
- Abstract(参考訳): 我々は,滑らかな凸関数の1次最小化のために,標準的な指数法(ミラープロキシと双対外挿法)が最適加速率を回復することを示した。
この結果を得るために, 相対リプシッツ性(relative lipschitzness)と呼ばれる自然条件を用いて, 単調変分不等式を解くための超勾配法の収束率の細粒度評価を行う。
さらに、このフレームワークを一般化して、相対的リプシッツネスの局所的およびランダムな概念を扱い、滑らかな凸関数最小化のための加速(ランダム化)座標の導出によって達成される領域凸性と複雑性境界に基づいて、ボックス制約の$\ell_\infty$回帰を回復する。
関連論文リスト
- Methods for Convex $(L_0,L_1)$-Smooth Optimization: Clipping, Acceleration, and Adaptivity [50.25258834153574]
我々は、(強に)凸 $(L0)$-smooth 関数のクラスに焦点を当て、いくつかの既存のメソッドに対する新しい収束保証を導出する。
特に,スムーズなグラディエント・クリッピングを有するグラディエント・ディフレッシュと,ポリアク・ステップサイズを有するグラディエント・ディフレッシュのコンバージェンス・レートの改善を導出した。
論文 参考訳(メタデータ) (2024-09-23T13:11:37Z) - Gradient-Variation Online Learning under Generalized Smoothness [56.38427425920781]
勾配変分オンライン学習は、オンライン関数の勾配の変化とともにスケールする後悔の保証を達成することを目的としている。
ニューラルネットワーク最適化における最近の取り組みは、一般化された滑らかさ条件を示唆し、滑らかさは勾配ノルムと相関する。
ゲームにおける高速収束と拡張逆最適化への応用について述べる。
論文 参考訳(メタデータ) (2024-08-17T02:22:08Z) - Stochastic Zeroth-Order Optimization under Strongly Convexity and Lipschitz Hessian: Minimax Sample Complexity [59.75300530380427]
本稿では,アルゴリズムが検索対象関数の雑音評価にのみアクセス可能な2次スムーズかつ強い凸関数を最適化する問題を考察する。
本研究は, ミニマックス単純後悔率について, 一致した上界と下界を発達させることにより, 初めて厳密な評価を行ったものである。
論文 参考訳(メタデータ) (2024-06-28T02:56:22Z) - Functional Partial Least-Squares: Optimal Rates and Adaptation [0.0]
共役勾配法に関連する機能的最小二乗推定器(PLS)の新たな定式化を提案する。
推定器は楕円体のクラス上で(ほぼ)最適収束率を達成することを示す。
論文 参考訳(メタデータ) (2024-02-16T23:47:47Z) - Incremental Quasi-Newton Methods with Faster Superlinear Convergence
Rates [50.36933471975506]
各成分関数が強く凸であり、リプシッツ連続勾配とヘシアンを持つ有限和最適化問題を考える。
最近提案されたインクリメンタル準ニュートン法は、BFGSの更新に基づいて、局所的な超線形収束率を達成する。
本稿では、対称ランク1更新をインクリメンタルフレームワークに組み込むことにより、より効率的な準ニュートン法を提案する。
論文 参考訳(メタデータ) (2024-02-04T05:54:51Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Convex and Non-convex Optimization Under Generalized Smoothness [69.69521650503431]
凸法と非最適化法の分析は、しばしばリプシッツ勾配を必要とし、この軌道による解析を制限する。
最近の研究は、非一様滑らか性条件を通した勾配設定を一般化している。
論文 参考訳(メタデータ) (2023-06-02T04:21:59Z) - Cyclic Block Coordinate Descent With Variance Reduction for Composite
Nonconvex Optimization [26.218670461973705]
非漸近勾配ノルム保証を協調する問題の解法を提案する。
本研究は,ニューラルネットの深部学習における循環還元方式の有効性を実証するものである。
論文 参考訳(メタデータ) (2022-12-09T19:17:39Z) - Proximal Subgradient Norm Minimization of ISTA and FISTA [8.261388753972234]
反復収縮保持アルゴリズムのクラスに対する2乗近位次数ノルムは逆2乗率で収束することを示す。
また、高速反復収縮保持アルゴリズム (FISTA) のクラスに対する2乗次次数次ノルムが、逆立方レートで収束するように加速されることも示している。
論文 参考訳(メタデータ) (2022-11-03T06:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。