論文の概要: Adaptive Gradient Methods for Constrained Convex Optimization and
Variational Inequalities
- arxiv url: http://arxiv.org/abs/2007.08840v3
- Date: Mon, 15 Feb 2021 19:47:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:31:23.026791
- Title: Adaptive Gradient Methods for Constrained Convex Optimization and
Variational Inequalities
- Title(参考訳): 制約付き凸最適化と変分不等式に対する適応勾配法
- Authors: Alina Ene, Huy L. Nguyen, Adrian Vladu
- Abstract要約: AdaACSAとAdaAGD+は制約付き凸最適化の高速化手法である。
我々はこれらを、同じ特徴を享受し、標準の非加速収束率を達成する、より単純なアルゴリズムAdaGrad+で補完する。
- 参考スコア(独自算出の注目度): 32.51470158863247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We provide new adaptive first-order methods for constrained convex
optimization. Our main algorithms AdaACSA and AdaAGD+ are accelerated methods,
which are universal in the sense that they achieve nearly-optimal convergence
rates for both smooth and non-smooth functions, even when they only have access
to stochastic gradients. In addition, they do not require any prior knowledge
on how the objective function is parametrized, since they automatically adjust
their per-coordinate learning rate. These can be seen as truly accelerated
Adagrad methods for constrained optimization.
We complement them with a simpler algorithm AdaGrad+ which enjoys the same
features, and achieves the standard non-accelerated convergence rate. We also
present a set of new results involving adaptive methods for unconstrained
optimization and monotone operators.
- Abstract(参考訳): 制約付き凸最適化のための適応一階法を提案する。
adaacsa と adaagd+ の主なアルゴリズムは加速度法であり、滑らかな関数と非スムース関数の両方に対してほぼ最適収束率を達成するという意味では普遍的である。
さらに, 目標関数のパラメータ化に関する事前知識は必要とせず, 協調学習速度を自動的に調整する。
これらは制約付き最適化のための真の加速アダグラード法と見なすことができる。
同様の特徴を享受する単純なアルゴリズム adagrad+ で補完し、標準の非加速収束率を達成する。
また、制約のない最適化と単調演算子に対する適応手法を含む新しい結果の集合を示す。
関連論文リスト
- ELRA: Exponential learning rate adaption gradient descent optimization
method [83.88591755871734]
我々は, 高速(指数率), ab initio(超自由)勾配に基づく適応法を提案する。
本手法の主な考え方は,状況認識による$alphaの適応である。
これは任意の次元 n の問題に適用でき、線型にしかスケールできない。
論文 参考訳(メタデータ) (2023-09-12T14:36:13Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - On Constraints in First-Order Optimization: A View from Non-Smooth
Dynamical Systems [99.59934203759754]
本稿では,スムーズな制約付き最適化のための一階法について紹介する。
提案手法の2つの特徴は、実現可能な集合全体の投影や最適化が避けられることである。
結果として得られるアルゴリズムの手順は、制約が非線形であっても簡単に実装できる。
論文 参考訳(メタデータ) (2021-07-17T11:45:13Z) - SUPER-ADAM: Faster and Universal Framework of Adaptive Gradients [99.13839450032408]
一般的な問題を解決するための適応アルゴリズムのための普遍的な枠組みを設計することが望まれる。
特に,本フレームワークは,非収束的設定支援の下で適応的手法を提供する。
論文 参考訳(メタデータ) (2021-06-15T15:16:28Z) - Meta-Regularization: An Approach to Adaptive Choice of the Learning Rate
in Gradient Descent [20.47598828422897]
第一次下降法における学習率の適応的選択のための新しいアプローチであるtextit-Meta-Regularizationを提案する。
本手法は,正規化項を追加して目的関数を修正し,共同処理パラメータをキャストする。
論文 参考訳(メタデータ) (2021-04-12T13:13:34Z) - Projection-Free Adaptive Gradients for Large-Scale Optimization [22.0439695290991]
フランク=ウルフアルゴリズムは、目的から近似した一階情報のみをクエリすることで、両方の計算負担を軽減するため、ユニークな位置を占める。
本手法は,制約付き最適化のための適応アルゴリズムの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-09-29T15:56:12Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Adaptive First-and Zeroth-order Methods for Weakly Convex Stochastic
Optimization Problems [12.010310883787911]
我々は、弱凸(おそらく非滑らかな)最適化問題の重要なクラスを解くための、適応的な段階的な新しい手法の族を解析する。
実験結果から,提案アルゴリズムが0次勾配降下と設計変動を経験的に上回ることを示す。
論文 参考訳(メタデータ) (2020-05-19T07:44:52Z) - On the Convergence of Adaptive Gradient Methods for Nonconvex Optimization [80.03647903934723]
我々は、勾配収束法を期待する適応勾配法を証明した。
解析では、非理解勾配境界の最適化において、より適応的な勾配法に光を当てた。
論文 参考訳(メタデータ) (2018-08-16T20:25:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。