論文の概要: Generative Minimization Networks: Training GANs Without Competition
- arxiv url: http://arxiv.org/abs/2103.12685v1
- Date: Tue, 23 Mar 2021 17:01:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 17:32:06.659920
- Title: Generative Minimization Networks: Training GANs Without Competition
- Title(参考訳): 生成最小化ネットワーク:競争のないGANのトレーニング
- Authors: Paulina Grnarova, Yannic Kilcher, Kfir Y. Levy, Aurelien Lucchi,
Thomas Hofmann
- Abstract要約: 生成モデル、特にGANの最近の応用は、標準最適化技術が適さないようなmin-maxゲームへの関心を喚起している。
この目的に対して新たな収束保証を提供し,得られた極限点が既知技術よりも優れた解法であることを実証する。
- 参考スコア(独自算出の注目度): 34.808210988732405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many applications in machine learning can be framed as minimization problems
and solved efficiently using gradient-based techniques. However, recent
applications of generative models, particularly GANs, have triggered interest
in solving min-max games for which standard optimization techniques are often
not suitable. Among known problems experienced by practitioners is the lack of
convergence guarantees or convergence to a non-optimum cycle. At the heart of
these problems is the min-max structure of the GAN objective which creates
non-trivial dependencies between the players. We propose to address this
problem by optimizing a different objective that circumvents the min-max
structure using the notion of duality gap from game theory. We provide novel
convergence guarantees on this objective and demonstrate why the obtained limit
point solves the problem better than known techniques.
- Abstract(参考訳): 機械学習の多くの応用は最小化問題としてフレーム化でき、勾配に基づく手法で効率的に解ける。
しかし、生成モデル、特にGANの最近の応用は、標準最適化技術が適さないようなmin-maxゲームへの関心を喚起している。
実践者が経験する既知の問題の1つは、収束保証の欠如や非最適サイクルへの収束である。
これらの問題の核心は、プレイヤー間の非自明な依存関係を生成するGAN目標のmin-max構造である。
ゲーム理論との双対性ギャップの概念を用いて、min-max構造を回避できる異なる目的を最適化することにより、この問題に対処することを提案する。
この目的に対して新たな収束保証を提供し,得られた極限点が既知技術よりも優れた解法であることを実証する。
関連論文リスト
- WANCO: Weak Adversarial Networks for Constrained Optimization problems [5.257895611010853]
まず、拡張ラグランジアン法を用いてミニマックス問題をミニマックス問題に変換する。
次に、それぞれ原始変数と双対変数を表すために、2つの(または複数の)ディープニューラルネットワークを使用します。
ニューラルネットワークのパラメータは、敵のプロセスによって訓練される。
論文 参考訳(メタデータ) (2024-07-04T05:37:48Z) - Near-Optimal Solutions of Constrained Learning Problems [85.48853063302764]
機械学習システムでは、振る舞いを縮小する必要性がますます顕在化している。
これは、双対ロバスト性変数を満たすモデルの開発に向けた最近の進歩によって証明されている。
この結果から, 豊富なパラメトリゼーションは非次元的, 有限な学習問題を効果的に緩和することが示された。
論文 参考訳(メタデータ) (2024-03-18T14:55:45Z) - A Constrained Optimization Approach to Bilevel Optimization with
Multiple Inner Minima [49.320758794766185]
そこで本研究では,両レベル問題を等価な制約付き最適化に変換する手法を提案する。
このようなアプローチには、(a)多重内極小問題への対処、(b)ジャコビアン計算のない完全一階効率など、いくつかの利点がある。
論文 参考訳(メタデータ) (2022-03-01T18:20:01Z) - Learning Proximal Operators to Discover Multiple Optima [66.98045013486794]
非家族問題における近位演算子を学習するためのエンドツーエンド手法を提案する。
本手法は,弱い目的と穏やかな条件下では,世界規模で収束することを示す。
論文 参考訳(メタデータ) (2022-01-28T05:53:28Z) - A Decentralized Adaptive Momentum Method for Solving a Class of Min-Max
Optimization Problems [9.653157073271021]
我々は、min-max最適化問題を解決するために、分散適応運動量 (ADAM) 型アルゴリズムを開発した。
我々は、(確率的な)一階のナッシュ平衡点を求めるための提案アルゴリズムの非漸近収束率を求める。
論文 参考訳(メタデータ) (2021-06-10T22:32:01Z) - Efficient Methods for Structured Nonconvex-Nonconcave Min-Max
Optimization [98.0595480384208]
定常点に収束する一般化外空間を提案する。
このアルゴリズムは一般の$p$ノルド空間だけでなく、一般の$p$次元ベクトル空間にも適用される。
論文 参考訳(メタデータ) (2020-10-31T21:35:42Z) - The Landscape of the Proximal Point Method for Nonconvex-Nonconcave
Minimax Optimization [10.112779201155005]
Minimax PPMは、堅牢で強化された学習、GANなど、マシンラーニングの中心的なツールになっています。
これらの応用はしばしば非可逆であるが、既存の理論ではそれと根本的な困難を識別できない。
論文 参考訳(メタデータ) (2020-06-15T18:17:00Z) - Non-convex Min-Max Optimization: Applications, Challenges, and Recent
Theoretical Advances [58.54078318403909]
min-max問題(英: min-max problem)またはサドル点問題(英: saddle point problem)は、サムゲームにおいても研究されるクラス逆問題である。
論文 参考訳(メタデータ) (2020-06-15T05:33:42Z) - Fast Objective & Duality Gap Convergence for Non-Convex Strongly-Concave
Min-Max Problems with PL Condition [52.08417569774822]
本稿では,深層学習(深層AUC)により注目度が高まっている,円滑な非凹部min-max問題の解法に焦点をあてる。
論文 参考訳(メタデータ) (2020-06-12T00:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。