論文の概要: Hybrid Variance-Reduced SGD Algorithms For Nonconvex-Concave Minimax
Problems
- arxiv url: http://arxiv.org/abs/2006.15266v2
- Date: Mon, 26 Oct 2020 04:39:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 08:09:26.139969
- Title: Hybrid Variance-Reduced SGD Algorithms For Nonconvex-Concave Minimax
Problems
- Title(参考訳): 非凸凸ミニマックス問題に対するハイブリッド分散縮小sgdアルゴリズム
- Authors: Quoc Tran-Dinh and Deyi Liu and Lam M. Nguyen
- Abstract要約: 我々は,非ガンスミニマックス問題のクラスを解くアルゴリズムを開発した。
また、単一または2つのミニバッチ誘導体でも機能する。
- 参考スコア(独自算出の注目度): 26.24895953952318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a novel and single-loop variance-reduced algorithm to solve a
class of stochastic nonconvex-convex minimax problems involving a
nonconvex-linear objective function, which has various applications in
different fields such as machine learning and robust optimization. This problem
class has several computational challenges due to its nonsmoothness,
nonconvexity, nonlinearity, and non-separability of the objective functions.
Our approach relies on a new combination of recent ideas, including smoothing
and hybrid biased variance-reduced techniques. Our algorithm and its variants
can achieve $\mathcal{O}(T^{-2/3})$-convergence rate and the best known oracle
complexity under standard assumptions, where $T$ is the iteration counter. They
have several computational advantages compared to existing methods such as
simple to implement and less parameter tuning requirements. They can also work
with both single sample or mini-batch on derivative estimators, and with
constant or diminishing step-sizes. We demonstrate the benefits of our
algorithms over existing methods through two numerical examples, including a
nonsmooth and nonconvex-non-strongly concave minimax model.
- Abstract(参考訳): 我々は,非凸線形目的関数を含む確率的非凸-凸最小値問題のクラスを,機械学習やロバスト最適化などさまざまな分野に応用する,新しい単一ループ分散推論アルゴリズムを開発した。
この問題クラスは、目的関数の非滑らか性、非凸性、非線形性、非分離性のために、いくつかの計算上の問題を持つ。
我々のアプローチは、スムース化とハイブリッドバイアス分散再現技術を含む、最近のアイデアの新たな組み合わせに依存している。
我々のアルゴリズムとその変種は、標準仮定の下でもっともよく知られたoracleの複雑さである$\mathcal{o}(t^{-2/3})$-convergence率を達成することができる。
これらは、実装が簡単でパラメータチューニングの要求が少ないなど、既存の方法と比較して、いくつかの計算上の利点がある。
単一のサンプルでも、微分推定器上のミニバッチでも動作でき、ステップサイズは一定または減少する。
既存手法に対するアルゴリズムの利点を,非平滑および非凸非凹凸ミニマックスモデルを含む2つの数値例で示す。
関連論文リスト
- Shuffling Gradient-Based Methods for Nonconvex-Concave Minimax Optimization [20.093236438944718]
我々は非線形ミニマックス問題に対処する新しい勾配法を開発した。
提案手法は,他の手法と同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-29T17:47:22Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Self-concordant Smoothing for Large-Scale Convex Composite Optimization [0.0]
2つの凸関数の和を最小化する自己協和スムージングの概念を導入し、そのうちの1つは滑らかであり、もう1つは非滑らかである。
本稿では, 近位ニュートンアルゴリズムであるProx-N-SCOREと近位一般化したガウスニュートンアルゴリズムであるProx-GGN-SCOREの2つのアルゴリズムの収束性を証明する。
論文 参考訳(メタデータ) (2023-09-04T19:47:04Z) - Stochastic Inexact Augmented Lagrangian Method for Nonconvex Expectation
Constrained Optimization [88.0031283949404]
多くの実世界の問題は複雑な非機能的制約を持ち、多くのデータポイントを使用する。
提案手法は,従来最もよく知られた結果で既存手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-19T14:48:54Z) - Multi-block-Single-probe Variance Reduced Estimator for Coupled
Compositional Optimization [49.58290066287418]
構成問題の複雑さを軽減するために,MSVR (Multi-block-probe Variance Reduced) という新しい手法を提案する。
本研究の結果は, 試料の複雑さの順序や強靭性への依存など, 様々な面で先行して改善された。
論文 参考訳(メタデータ) (2022-07-18T12:03:26Z) - A framework for bilevel optimization that enables stochastic and global
variance reduction algorithms [17.12280360174073]
双レベル最適化は、他の関数のarg最小値を含む値関数を最小化する問題である。
本稿では, 内部問題の解, 線形系の解, 主変数を同時に発展させる新しい枠組みを提案する。
我々のフレームワークにおけるSAGAアルゴリズムの適応であるSABAは$O(frac1T)$収束率を持ち、Polyak-Lojasciewicz仮定の下で線形収束を達成することを示した。
論文 参考訳(メタデータ) (2022-01-31T18:17:25Z) - Minimax Optimization with Smooth Algorithmic Adversaries [59.47122537182611]
対戦相手が展開するスムーズなアルゴリズムに対して,Min-playerの新しいアルゴリズムを提案する。
本アルゴリズムは,制限周期のない単調進行を保証し,適切な勾配上昇数を求める。
論文 参考訳(メタデータ) (2021-06-02T22:03:36Z) - Distributed Stochastic Consensus Optimization with Momentum for
Nonconvex Nonsmooth Problems [45.88640334610308]
本稿では,非滑らかな問題に対する分散最適化アルゴリズムを提案する。
提案アルゴリズムは,過度な通信を実現することができることを示す。
提案アルゴリズムの有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-11-10T13:12:21Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Gradient Free Minimax Optimization: Variance Reduction and Faster
Convergence [120.9336529957224]
本稿では、勾配のないミニマックス最適化問題の大きさを非強設定で表現する。
本稿では,新しいゼロ階分散還元降下アルゴリズムが,クエリの複雑さを最もよく表すことを示す。
論文 参考訳(メタデータ) (2020-06-16T17:55:46Z) - Zeroth-Order Algorithms for Nonconvex Minimax Problems with Improved
Complexities [21.13934071954103]
本稿では,非インワンテキスト変数 Descent に対する決定論的アルゴリズムを提案する。
SGC仮定の下では,アルゴリズムの複雑さが既存のアルゴリズムの複雑さと一致していることが示される。
結果はオラクル・テキストZO-GDMSAで示され、数値実験により理論的結果が裏付けられる。
論文 参考訳(メタデータ) (2020-01-22T00:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。