論文の概要: Zeroth-Order Algorithms for Nonconvex Minimax Problems with Improved
Complexities
- arxiv url: http://arxiv.org/abs/2001.07819v2
- Date: Mon, 4 Apr 2022 23:36:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 18:13:59.390255
- Title: Zeroth-Order Algorithms for Nonconvex Minimax Problems with Improved
Complexities
- Title(参考訳): 複雑度を改良した非凸ミニマックス問題に対するゼロ次アルゴリズム
- Authors: Zhongruo Wang, Krishnakumar Balasubramanian, Shiqian Ma, Meisam
Razaviyayn
- Abstract要約: 本稿では,非インワンテキスト変数 Descent に対する決定論的アルゴリズムを提案する。
SGC仮定の下では,アルゴリズムの複雑さが既存のアルゴリズムの複雑さと一致していることが示される。
結果はオラクル・テキストZO-GDMSAで示され、数値実験により理論的結果が裏付けられる。
- 参考スコア(独自算出の注目度): 21.13934071954103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we study zeroth-order algorithms for minimax optimization
problems that are nonconvex in one variable and strongly-concave in the other
variable. Such minimax optimization problems have attracted significant
attention lately due to their applications in modern machine learning tasks. We
first consider a deterministic version of the problem. We design and analyze
the Zeroth-Order Gradient Descent Ascent (\texttt{ZO-GDA}) algorithm, and
provide improved results compared to existing works, in terms of oracle
complexity. We also propose the Zeroth-Order Gradient Descent Multi-Step Ascent
(\texttt{ZO-GDMSA}) algorithm that significantly improves the oracle complexity
of \texttt{ZO-GDA}. We then consider stochastic versions of \texttt{ZO-GDA} and
\texttt{ZO-GDMSA}, to handle stochastic nonconvex minimax problems. For this
case, we provide oracle complexity results under two assumptions on the
stochastic gradient: (i) the uniformly bounded variance assumption, which is
common in traditional stochastic optimization, and (ii) the Strong Growth
Condition (SGC), which has been known to be satisfied by modern
over-parametrized machine learning models. We establish that under the SGC
assumption, the complexities of the stochastic algorithms match that of
deterministic algorithms. Numerical experiments are presented to support our
theoretical results.
- Abstract(参考訳): 本稿では,一方の変数が非凸で他方の変数が強凸であるミニマックス最適化問題に対するゼロ次アルゴリズムについて検討する。
このようなミニマックス最適化問題は、最近の機械学習タスクに応用されているため、近年大きな注目を集めている。
まず、その問題を決定論的に検討する。
我々は,ゼロ階勾配Descent Ascent (\texttt{ZO-GDA}) アルゴリズムの設計と解析を行い,オラクルの複雑さの観点から既存の研究と比べて改善された結果を提供する。
また,oracle の \texttt{zo-gda} の複雑さを大幅に改善する,ゼロ次勾配降下多段昇降法(\texttt{zo-gdmsa})を提案する。
次に、確率的非凸ミニマックス問題を扱うために、 \texttt{zo-gda} と \texttt{zo-gdmsa} の確率的バージョンを考える。
この場合、確率勾配に関する2つの仮定の下でオラクルの複雑さの結果を提供する。
(i)従来の確率的最適化に共通する一様有界分散仮定
(ii) 強成長条件(sgc)は、現代の過パラメータ機械学習モデルによって満足されることが知られている。
sgcの仮定の下では、確率的アルゴリズムの複雑さは決定論的アルゴリズムのそれと一致する。
理論的結果を支援するため, 数値実験を行った。
関連論文リスト
- Decentralized Riemannian Algorithm for Nonconvex Minimax Problems [82.50374560598493]
ニューラルネットワークのためのミニマックスアルゴリズムは、多くの問題を解決するために開発された。
本稿では,2種類のミニマックスアルゴリズムを提案する。
そこで我々は, DRSGDAを提案し, 本手法が勾配を達成することを証明した。
論文 参考訳(メタデータ) (2023-02-08T01:42:45Z) - Optimal Algorithms for Stochastic Complementary Composite Minimization [55.26935605535377]
統計学と機械学習における正規化技術に触発され,補完的な複合化の最小化について検討した。
予測と高い確率で、新しい過剰なリスク境界を提供する。
我々のアルゴリズムはほぼ最適であり、このクラスの問題に対して、新しいより低い複雑性境界によって証明する。
論文 参考訳(メタデータ) (2022-11-03T12:40:24Z) - Accelerated Proximal Alternating Gradient-Descent-Ascent for Nonconvex
Minimax Machine Learning [12.069630105460766]
AltGDA(Alternating Table-descentascent)は、様々な機械学習アプリケーションで広く使われている計算最適化アルゴリズムである。
本論文では,最小限の最適化問題を解くために,単一ループの高速なループ勾配計算アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-12-22T04:33:27Z) - Randomized Stochastic Variance-Reduced Methods for Stochastic Bilevel
Optimization [62.87181271021217]
機械学習に多くの応用がある非SBO問題を考察する。
本稿では,非SBO問題に対する高速ランダム化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-05T18:28:42Z) - Distributed Stochastic Consensus Optimization with Momentum for
Nonconvex Nonsmooth Problems [45.88640334610308]
本稿では,非滑らかな問題に対する分散最適化アルゴリズムを提案する。
提案アルゴリズムは,過度な通信を実現することができることを示す。
提案アルゴリズムの有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-11-10T13:12:21Z) - Stochastic Multi-level Composition Optimization Algorithms with
Level-Independent Convergence Rates [12.783783498844022]
目的関数が$T$関数のネスト合成であるような,スムーズな多層合成最適化問題について検討する。
citeGhaRuswan20を$T$のレベルで一般化した最初のアルゴリズムは、$mathcalO (1/epsilon$6) のサンプル複雑性を実現することができることを示す。
これは、(アン)マルチレベル設定のために設計されたオンラインアルゴリズムが、標準仮定の下で同じサンプル複雑性を得るのはこれが初めてである。
論文 参考訳(メタデータ) (2020-08-24T15:57:50Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Hybrid Variance-Reduced SGD Algorithms For Nonconvex-Concave Minimax
Problems [26.24895953952318]
我々は,非ガンスミニマックス問題のクラスを解くアルゴリズムを開発した。
また、単一または2つのミニバッチ誘導体でも機能する。
論文 参考訳(メタデータ) (2020-06-27T03:05:18Z) - Gradient Free Minimax Optimization: Variance Reduction and Faster
Convergence [120.9336529957224]
本稿では、勾配のないミニマックス最適化問題の大きさを非強設定で表現する。
本稿では,新しいゼロ階分散還元降下アルゴリズムが,クエリの複雑さを最もよく表すことを示す。
論文 参考訳(メタデータ) (2020-06-16T17:55:46Z) - Exploiting Higher Order Smoothness in Derivative-free Optimization and
Continuous Bandits [99.70167985955352]
強凸関数のゼロ次最適化問題について検討する。
予測勾配降下アルゴリズムのランダム化近似を考察する。
その結果,0次アルゴリズムはサンプルの複雑性や問題パラメータの点でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-14T10:42:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。