論文の概要: Solving a class of non-convex min-max games using adaptive momentum
methods
- arxiv url: http://arxiv.org/abs/2104.12676v1
- Date: Mon, 26 Apr 2021 16:06:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:50:54.996013
- Title: Solving a class of non-convex min-max games using adaptive momentum
methods
- Title(参考訳): 適応運動量法を用いた非凸ミニマックスゲームの解法
- Authors: Babak Barazandeh, Davoud Ataee Tarzanagh, George Michailidis
- Abstract要約: 適応運動量法はディープニューラルネットワークに多くの注目を集めている。
本稿では,敵対ネットワークにおける適応運動量最小最適化問題を提案する。
実験の結果, vis-avis法が優れていることがわかった。
- 参考スコア(独自算出の注目度): 9.538456363995161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adaptive momentum methods have recently attracted a lot of attention for
training of deep neural networks. They use an exponential moving average of
past gradients of the objective function to update both search directions and
learning rates. However, these methods are not suited for solving min-max
optimization problems that arise in training generative adversarial networks.
In this paper, we propose an adaptive momentum min-max algorithm that
generalizes adaptive momentum methods to the non-convex min-max regime.
Further, we establish non-asymptotic rates of convergence for the proposed
algorithm when used in a reasonably broad class of non-convex min-max
optimization problems. Experimental results illustrate its superior performance
vis-a-vis benchmark methods for solving such problems.
- Abstract(参考訳): 適応モーメント法は最近、ディープニューラルネットワークのトレーニングに多くの注目を集めている。
対象関数の過去の勾配の指数的な移動平均を使い、探索方向と学習率の両方を更新する。
しかし、これらの手法は、生成的対向ネットワークのトレーニングで生じるmin-max最適化問題の解決には適していない。
本稿では,適応運動量法を非凸 min-max に一般化する適応運動量 min-max アルゴリズムを提案する。
さらに,非凸min-max最適化問題に適度に広いクラスを用いた場合,提案アルゴリズムの非漸近収束率を定式化する。
実験の結果, vis-a-visベンチマーク法が優れていることがわかった。
関連論文リスト
- Effectively Leveraging Momentum Terms in Stochastic Line Search Frameworks for Fast Optimization of Finite-Sum Problems [0.5156484100374059]
過度にパラメータ化された状態における深度最適化のための最近の線探索手法と運動量方向との関係について検討する。
モーメントパラメータの定義にデータ持続性、共役型ルールの混合を利用するアルゴリズムを導入する。
結果のアルゴリズムは、他の一般的な手法よりも優れていることを実証的に示している。
論文 参考訳(メタデータ) (2024-11-11T16:26:33Z) - Enhancing CNN Classification with Lamarckian Memetic Algorithms and Local Search [0.0]
そこで本研究では,局所探索機能を組み込んだ2段階学習手法と集団最適化アルゴリズムを併用した新しい手法を提案する。
実験の結果,提案手法は最先端の勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2024-10-26T17:31:15Z) - A theoretical and empirical study of new adaptive algorithms with
additional momentum steps and shifted updates for stochastic non-convex
optimization [0.0]
適応最適化アルゴリズムは学習分野の鍵となる柱を表現していると考えられる。
本稿では,異なる非滑らかな目的問題に対する適応運動量法を提案する。
論文 参考訳(メタデータ) (2021-10-16T09:47:57Z) - A Decentralized Adaptive Momentum Method for Solving a Class of Min-Max
Optimization Problems [9.653157073271021]
我々は、min-max最適化問題を解決するために、分散適応運動量 (ADAM) 型アルゴリズムを開発した。
我々は、(確率的な)一階のナッシュ平衡点を求めるための提案アルゴリズムの非漸近収束率を求める。
論文 参考訳(メタデータ) (2021-06-10T22:32:01Z) - Unified Convergence Analysis for Adaptive Optimization with Moving Average Estimator [75.05106948314956]
1次モーメントに対する大きな運動量パラメータの増大は適応的スケーリングに十分であることを示す。
また,段階的に減少するステップサイズに応じて,段階的に運動量を増加させるための洞察を与える。
論文 参考訳(メタデータ) (2021-04-30T08:50:24Z) - Efficient Methods for Structured Nonconvex-Nonconcave Min-Max
Optimization [98.0595480384208]
定常点に収束する一般化外空間を提案する。
このアルゴリズムは一般の$p$ノルド空間だけでなく、一般の$p$次元ベクトル空間にも適用される。
論文 参考訳(メタデータ) (2020-10-31T21:35:42Z) - IDEAL: Inexact DEcentralized Accelerated Augmented Lagrangian Method [64.15649345392822]
本稿では,局所関数が滑らかで凸な分散最適化環境下での原始的手法設計のためのフレームワークを提案する。
提案手法は,加速ラグランジアン法により誘導されるサブプロブレム列を概ね解いたものである。
加速度勾配降下と組み合わせることで,収束速度が最適で,最近導出された下界と一致した新しい原始アルゴリズムが得られる。
論文 参考訳(メタデータ) (2020-06-11T18:49:06Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Adaptive First-and Zeroth-order Methods for Weakly Convex Stochastic
Optimization Problems [12.010310883787911]
我々は、弱凸(おそらく非滑らかな)最適化問題の重要なクラスを解くための、適応的な段階的な新しい手法の族を解析する。
実験結果から,提案アルゴリズムが0次勾配降下と設計変動を経験的に上回ることを示す。
論文 参考訳(メタデータ) (2020-05-19T07:44:52Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。