論文の概要: A Convergent and Dimension-Independent Min-Max Optimization Algorithm
- arxiv url: http://arxiv.org/abs/2006.12376v6
- Date: Thu, 30 Jun 2022 19:53:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 05:37:55.530095
- Title: A Convergent and Dimension-Independent Min-Max Optimization Algorithm
- Title(参考訳): 収束および次元非依存min-max最適化アルゴリズム
- Authors: Vijay Keswani, Oren Mangoubi, Sushant Sachdeva, Nisheeth K. Vishnoi
- Abstract要約: min-playerがパラメータを更新するために使用する分布は、滑らかで非凹凸関数に依存していることを示す。
我々のアルゴリズムは、繰り返しに依存しない多くの反復において近似的な局所平衡に収束する。
- 参考スコア(独自算出の注目度): 32.492526162436405
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a variant of a recently introduced min-max optimization framework
where the max-player is constrained to update its parameters in a greedy manner
until it reaches a first-order stationary point. Our equilibrium definition for
this framework depends on a proposal distribution which the min-player uses to
choose directions in which to update its parameters. We show that, given a
smooth and bounded nonconvex-nonconcave objective function, access to any
proposal distribution for the min-player's updates, and stochastic gradient
oracle for the max-player, our algorithm converges to the aforementioned
approximate local equilibrium in a number of iterations that does not depend on
the dimension. The equilibrium point found by our algorithm depends on the
proposal distribution, and when applying our algorithm to train GANs we choose
the proposal distribution to be a distribution of stochastic gradients. We
empirically evaluate our algorithm on challenging nonconvex-nonconcave
test-functions and loss functions arising in GAN training. Our algorithm
converges on these test functions and, when used to train GANs, trains stably
on synthetic and real-world datasets and avoids mode collapse
- Abstract(参考訳): 我々は、最近導入されたmin-max最適化フレームワークの変種を調査し、max-playerがそのパラメータを1次定常点に到達するまで欲張りな方法で更新するよう制約されている。
このフレームワークの平衡定義は、min-playerがパラメータを更新する方向を選択するために使用する提案分布に依存する。
我々は,滑らかで有界な非凸非凸目的関数,min-player の更新提案分布へのアクセス,max-player の確率的勾配 oracle が与えられた場合,その次元に依存しない数回の反復において,上記の近似局所平衡に収束することを示す。
提案手法により得られた平衡点は提案分布に依存し,ganの学習にアルゴリズムを適用する場合,確率勾配の分布として提案分布を選択する。
我々は,GAN訓練における非凸非凸試験関数と損失関数の挑戦に対するアルゴリズムを実験的に評価した。
我々のアルゴリズムはこれらのテスト関数に収束し、GANを訓練する際には、合成および実世界のデータセットを安定的に訓練し、モード崩壊を避ける。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Stochastic Zeroth-Order Optimization under Strongly Convexity and Lipschitz Hessian: Minimax Sample Complexity [59.75300530380427]
本稿では,アルゴリズムが検索対象関数の雑音評価にのみアクセス可能な2次スムーズかつ強い凸関数を最適化する問題を考察する。
本研究は, ミニマックス単純後悔率について, 一致した上界と下界を発達させることにより, 初めて厳密な評価を行ったものである。
論文 参考訳(メタデータ) (2024-06-28T02:56:22Z) - Online Optimization Perspective on First-Order and Zero-Order Decentralized Nonsmooth Nonconvex Stochastic Optimization [8.670873561640903]
分散環境下での非平滑な非平滑な目的に対する(delta,,ilon$)-定常点の有限時間解析について検討する。
$Oは分散非滑らかな最適化のための最初の有限時間保証である。
論文 参考訳(メタデータ) (2024-06-03T16:09:34Z) - Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - Maximum-Likelihood Inverse Reinforcement Learning with Finite-Time
Guarantees [56.848265937921354]
逆強化学習(IRL)は報酬関数と関連する最適ポリシーを回復することを目的としている。
IRLの多くのアルゴリズムは本質的にネスト構造を持つ。
我々は、報酬推定精度を損なわないIRLのための新しいシングルループアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-10-04T17:13:45Z) - Hessian Averaging in Stochastic Newton Methods Achieves Superlinear
Convergence [69.65563161962245]
ニュートン法を用いて,滑らかで強凸な目的関数を考える。
最適段階において局所収束に遷移する普遍重み付き平均化スキームが存在することを示す。
論文 参考訳(メタデータ) (2022-04-20T07:14:21Z) - Distributed Sketching for Randomized Optimization: Exact
Characterization, Concentration and Lower Bounds [54.51566432934556]
我々はヘシアンの形成が困難である問題に対する分散最適化法を検討する。
ランダム化されたスケッチを利用して、問題の次元を減らし、プライバシを保ち、非同期分散システムにおけるストラグラーレジリエンスを改善します。
論文 参考訳(メタデータ) (2022-03-18T05:49:13Z) - Distributed stochastic proximal algorithm with random reshuffling for
non-smooth finite-sum optimization [28.862321453597918]
非滑らかな有限サム最小化は機械学習の基本的な問題である。
本稿では,確率的リシャフリングを用いた分散近位勾配アルゴリズムを開発し,その問題の解法を提案する。
論文 参考訳(メタデータ) (2021-11-06T07:29:55Z) - A Decentralized Adaptive Momentum Method for Solving a Class of Min-Max
Optimization Problems [9.653157073271021]
我々は、min-max最適化問題を解決するために、分散適応運動量 (ADAM) 型アルゴリズムを開発した。
我々は、(確率的な)一階のナッシュ平衡点を求めるための提案アルゴリズムの非漸近収束率を求める。
論文 参考訳(メタデータ) (2021-06-10T22:32:01Z) - Convergence Analysis of Nonconvex Distributed Stochastic Zeroth-order
Coordinate Method [3.860616339202303]
本稿では,$ZOn$局所コスト関数の合計により形成されるグローバルコスト関数を最小化する分散非最適化問題について検討する。
エージェントは問題を解くためにzo座標法を近似する。
論文 参考訳(メタデータ) (2021-03-24T03:07:46Z) - Riemannian Langevin Algorithm for Solving Semidefinite Programs [9.340611077939828]
球面の積多様体上での非最適化とサンプリングのためのランゲヴィンに基づくアルゴリズムを提案する。
提案アルゴリズムは,高い確率で$epsilonの精度が得られることを示す。
論文 参考訳(メタデータ) (2020-10-21T17:51:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。