論文の概要: Accelerated Proximal Alternating Gradient-Descent-Ascent for Nonconvex
Minimax Machine Learning
- arxiv url: http://arxiv.org/abs/2112.11663v1
- Date: Wed, 22 Dec 2021 04:33:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 16:29:22.158544
- Title: Accelerated Proximal Alternating Gradient-Descent-Ascent for Nonconvex
Minimax Machine Learning
- Title(参考訳): 非凸ミニマックス機械学習のためのアクセラレーション近位勾配勾配上昇
- Authors: Ziyi Chen, Shaocong Ma, Yi Zhou
- Abstract要約: AltGDA(Alternating Table-descentascent)は、様々な機械学習アプリケーションで広く使われている計算最適化アルゴリズムである。
本論文では,最小限の最適化問題を解くために,単一ループの高速なループ勾配計算アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 12.069630105460766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Alternating gradient-descent-ascent (AltGDA) is an optimization algorithm
that has been widely used for model training in various machine learning
applications, which aim to solve a nonconvex minimax optimization problem.
However, the existing studies show that it suffers from a high computation
complexity in nonconvex minimax optimization. In this paper, we develop a
single-loop and fast AltGDA-type algorithm that leverages proximal gradient
updates and momentum acceleration to solve regularized nonconvex minimax
optimization problems. By identifying the intrinsic Lyapunov function of this
algorithm, we prove that it converges to a critical point of the nonconvex
minimax optimization problem and achieves a computation complexity
$\mathcal{O}(\kappa^{1.5}\epsilon^{-2})$, where $\epsilon$ is the desired level
of accuracy and $\kappa$ is the problem's condition number. Such a computation
complexity improves the state-of-the-art complexities of single-loop GDA and
AltGDA algorithms (see the summary of comparison in Table 1). We demonstrate
the effectiveness of our algorithm via an experiment on adversarial deep
learning.
- Abstract(参考訳): AltGDA(Alternating gradient-descent-ascent)は、様々な機械学習アプリケーションでモデルトレーニングに広く用いられている最適化アルゴリズムである。
しかし,既存の研究では,非凸最小値最適化における計算複雑性に悩まされている。
本稿では,非凸ミニマックス最適化問題を解くために,近位勾配更新と運動量加速度を利用した単ループ高速altgda型アルゴリズムを開発した。
このアルゴリズムの固有リアプノフ関数を同定することにより、非凸ミニマックス最適化問題の臨界点に収束し、計算複雑性 $\mathcal{o}(\kappa^{1.5}\epsilon^{-2})$ を達成することを証明し、ここで $\epsilon$ は所望の精度のレベルであり、$\kappa$ は問題の条件数である。
このような計算複雑性は、シングルループGDAとAltGDAのアルゴリズムの最先端の複雑さを改善する(表1)。
逆深層学習実験により,本アルゴリズムの有効性を実証する。
関連論文リスト
- Obtaining Lower Query Complexities through Lightweight Zeroth-Order Proximal Gradient Algorithms [65.42376001308064]
複素勾配問題に対する2つの分散化ZO推定器を提案する。
我々は、現在最先端の機能複雑性を$mathcalOleft(minfracdn1/2epsilon2, fracdepsilon3right)$から$tildecalOleft(fracdepsilon2right)$に改善する。
論文 参考訳(メタデータ) (2024-10-03T15:04:01Z) - Accelerated Gradient Algorithms with Adaptive Subspace Search for
Instance-Faster Optimization [6.896308995955336]
グラディエントベースのミニマックス最適アルゴリズムは、継続的最適化と機械学習の開発を促進する。
本稿では,勾配に基づくアルゴリズムの設計と解析を行う新しい手法を機械学習に直接応用する。
論文 参考訳(メタデータ) (2023-12-06T01:16:10Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Adaptive Federated Minimax Optimization with Lower Complexities [82.51223883622552]
本稿では,これらのミニマックス問題の解法として,適応最小最適化アルゴリズム(AdaFGDA)を提案する。
運動量に基づく還元および局所SGD技術を構築し、様々な適応学習率を柔軟に組み込む。
論文 参考訳(メタデータ) (2022-11-14T12:32:18Z) - Train simultaneously, generalize better: Stability of gradient-based
minimax learners [12.691047660244331]
コンベックス・コンベブと非コンベックス・ミニマックス・セッティングの両方において,訓練されたミニマックスモデルの性能において重要な役割を担っている。
学習したミニマックスモデルの一般化における最適化アルゴリズムの役割を示す数値的な結果について議論する。
論文 参考訳(メタデータ) (2020-10-23T17:44:43Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Gradient Free Minimax Optimization: Variance Reduction and Faster
Convergence [120.9336529957224]
本稿では、勾配のないミニマックス最適化問題の大きさを非強設定で表現する。
本稿では,新しいゼロ階分散還元降下アルゴリズムが,クエリの複雑さを最もよく表すことを示す。
論文 参考訳(メタデータ) (2020-06-16T17:55:46Z) - Zeroth-Order Algorithms for Nonconvex Minimax Problems with Improved
Complexities [21.13934071954103]
本稿では,非インワンテキスト変数 Descent に対する決定論的アルゴリズムを提案する。
SGC仮定の下では,アルゴリズムの複雑さが既存のアルゴリズムの複雑さと一致していることが示される。
結果はオラクル・テキストZO-GDMSAで示され、数値実験により理論的結果が裏付けられる。
論文 参考訳(メタデータ) (2020-01-22T00:05:14Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。