論文の概要: Smoothness and Stability in GANs
- arxiv url: http://arxiv.org/abs/2002.04185v1
- Date: Tue, 11 Feb 2020 03:08:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 01:19:10.025817
- Title: Smoothness and Stability in GANs
- Title(参考訳): GANの平滑性と安定性
- Authors: Casey Chu, Kentaro Minami, Kenji Fukumizu
- Abstract要約: GAN(Generative Adversarial Network)は、トレーニング中に不安定な動作を示す。
我々は,様々な種類のGANの安定性を理解するための理論的枠組みを開発する。
- 参考スコア(独自算出の注目度): 21.01604897837572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks, or GANs, commonly display unstable behavior
during training. In this work, we develop a principled theoretical framework
for understanding the stability of various types of GANs. In particular, we
derive conditions that guarantee eventual stationarity of the generator when it
is trained with gradient descent, conditions that must be satisfied by the
divergence that is minimized by the GAN and the generator's architecture. We
find that existing GAN variants satisfy some, but not all, of these conditions.
Using tools from convex analysis, optimal transport, and reproducing kernels,
we construct a GAN that fulfills these conditions simultaneously. In the
process, we explain and clarify the need for various existing GAN stabilization
techniques, including Lipschitz constraints, gradient penalties, and smooth
activation functions.
- Abstract(参考訳): gan(generative adversarial network)は、訓練中に不安定な行動を示す。
本研究では,様々な種類のGANの安定性を理解するための理論的枠組みを開発する。
特に,GANとジェネレータのアーキテクチャによって最小化される分散によって満たされなければならない条件を,勾配降下で訓練された場合,ジェネレータの最終的な定常性を保証する条件を導出する。
既存の GAN 変種はこれらの条件のいくつかを満たすが、全てではない。
コンベックス解析,最適輸送,カーネル再生などのツールを用いて,これらの条件を同時に満たすGANを構築する。
このプロセスでは,リプシッツ制約,勾配ペナルティ,スムーズなアクティベーション機能など,既存のGAN安定化技術の必要性を説明・明らかにする。
関連論文リスト
- Convergences for Minimax Optimization Problems over Infinite-Dimensional
Spaces Towards Stability in Adversarial Training [0.6008132390640294]
GAN(Generative Adversarial Network)のような、敵の最適化を必要とするニューラルネットワークのトレーニングは不安定に悩まされる。
本研究では,機能解析を通じて理論的にこの問題に対処する。
論文 参考訳(メタデータ) (2023-12-02T01:15:57Z) - Generator Identification for Linear SDEs with Additive and
Multiplicative Noise [48.437815378088466]
同定可能性条件は線形SDEを用いた因果推論において重要である。
付加雑音を伴う線形SDEの生成元を特定するのに十分かつ必要な条件を導出する。
導出された識別可能性条件を幾何学的に解釈して理解を深める。
論文 参考訳(メタデータ) (2023-10-30T12:28:53Z) - Numerically Stable Sparse Gaussian Processes via Minimum Separation
using Cover Trees [57.67528738886731]
誘導点に基づくスケーラブルスパース近似の数値安定性について検討する。
地理空間モデリングなどの低次元タスクに対しては,これらの条件を満たす点を自動計算する手法を提案する。
論文 参考訳(メタデータ) (2022-10-14T15:20:17Z) - Dynamics of Fourier Modes in Torus Generative Adversarial Networks [0.8189696720657245]
GAN(Generative Adversarial Networks)は、所望の事象の完全な合成サンプルを高解像度で生成できる強力な機械学習モデルである。
彼らの成功にもかかわらず、GANのトレーニングプロセスは非常に不安定であり、典型的には、モデルの許容できる収束に達するために、ネットワークにいくつかのアクセサリー摂動を実装する必要がある。
本稿では,ジェネレーティブ・アドバイサル・ネットワークのトレーニングにおける収束と安定性を解析するための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-05T09:03:22Z) - Revisiting GANs by Best-Response Constraint: Perspective, Methodology,
and Application [49.66088514485446]
ベストレスポンス制約(Best-Response Constraint、BRC)は、ジェネレータのディスクリミネータへの依存性を明示的に定式化する一般的な学習フレームワークである。
モチベーションや定式化の相違があっても, フレキシブルBRC法により, 様々なGANが一様に改善できることが示される。
論文 参考訳(メタデータ) (2022-05-20T12:42:41Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z) - Conditional Hybrid GAN for Sequence Generation [56.67961004064029]
本稿では,この問題を解決するための条件付きハイブリッドGAN(C-Hybrid-GAN)を提案する。
我々はGumbel-Softmax法を利用して離散値列の分布を近似する。
提案したC-Hybrid-GANは、文脈条件付き離散値シーケンス生成において既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-18T03:52:55Z) - SGD for Structured Nonconvex Functions: Learning Rates, Minibatching and
Interpolation [17.199023009789308]
予想されるSGD(SGD)の仮定は、非アーティザン関数に対して日常的に使われている。
本稿では,スムーズな非線形設定への収束のパラダイムを示す。
また,異なるステップサイズ条件の理論的保証も提供する。
論文 参考訳(メタデータ) (2020-06-18T07:05:56Z) - Fine-Grained Analysis of Stability and Generalization for Stochastic
Gradient Descent [55.85456985750134]
我々は,SGDの反復的リスクによって制御される新しい境界を開発する,平均モデル安定性と呼ばれる新しい安定性尺度を導入する。
これにより、最良のモデルの振舞いによって一般化境界が得られ、低雑音環境における最初の既知の高速境界が導かれる。
我々の知る限りでは、このことはSGDの微分不能な損失関数でさえも初めて知られている安定性と一般化を与える。
論文 参考訳(メタデータ) (2020-06-15T06:30:19Z) - Cumulant GAN [17.4556035872983]
GAN(Generative Adversarial Networks)を学習するための新しい損失関数を提案する。
対応する最適化問題は R'enyi divergence minimization と同値であることを示す。
我々は,画像生成がWasserstein GANに対してより堅牢であることを実験的に実証した。
論文 参考訳(メタデータ) (2020-06-11T17:23:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。