論文の概要: A New Perspective on Stabilizing GANs training: Direct Adversarial
Training
- arxiv url: http://arxiv.org/abs/2008.09041v5
- Date: Tue, 19 Jul 2022 14:47:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 11:42:02.456782
- Title: A New Perspective on Stabilizing GANs training: Direct Adversarial
Training
- Title(参考訳): GANsトレーニングの安定化に関する新しい視点:直接対人訓練
- Authors: Ziqiang Li, Pengfei Xia, Rentuo Tao, Hongjing Niu, Bin Li
- Abstract要約: トレーニング不安定性は、GANベースのすべてのアルゴリズムにおいて、依然としてオープンな問題の1つである。
生成装置が生成した画像は、訓練過程において識別器の逆の例のように振る舞うことがある。
本稿では,GANの訓練過程を安定化させるダイレクト・アドバイザリアル・トレーニング法を提案する。
- 参考スコア(独自算出の注目度): 10.66166999381244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GANs) are the most popular image generation
models that have achieved remarkable progress on various computer vision tasks.
However, training instability is still one of the open problems for all
GAN-based algorithms. Quite a number of methods have been proposed to stabilize
the training of GANs, the focuses of which were respectively put on the loss
functions, regularization and normalization technologies, training algorithms,
and model architectures. Different from the above methods, in this paper, a new
perspective on stabilizing GANs training is presented. It is found that
sometimes the images produced by the generator act like adversarial examples of
the discriminator during the training process, which may be part of the reason
causing the unstable training of GANs. With this finding, we propose the Direct
Adversarial Training (DAT) method to stabilize the training process of GANs.
Furthermore, we prove that the DAT method is able to minimize the Lipschitz
constant of the discriminator adaptively. The advanced performance of DAT is
verified on multiple loss functions, network architectures, hyper-parameters,
and datasets. Specifically, DAT achieves significant improvements of 11.5% FID
on CIFAR-100 unconditional generation based on SSGAN, 10.5% FID on STL-10
unconditional generation based on SSGAN, and 13.2% FID on LSUN-Bedroom
unconditional generation based on SSGAN. Code will be available at
https://github.com/iceli1007/DAT-GAN
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、様々なコンピュータビジョンタスクにおいて顕著な進歩を遂げた画像生成モデルである。
しかしながら、トレーニングの不安定性は、GANベースの全てのアルゴリズムのオープンな問題の一つである。
損失関数、正規化および正規化技術、トレーニングアルゴリズム、モデルアーキテクチャにそれぞれ焦点をあてた、GANのトレーニングを安定化するための多くの手法が提案されている。
本稿では, 上記の方法と異なり, GANsトレーニングの安定化に向けた新たな視点を示す。
生成装置が生成した画像は、訓練過程において識別器の逆の例のように振る舞うことがあり、これがGANの不安定な訓練の原因となる可能性がある。
そこで本研究では,gansの訓練過程を安定化するdaf(direct adversarial training)法を提案する。
さらに, DAT法は判別器のリプシッツ定数を適応的に最小化できることを示す。
DATの高度な性能は、複数の損失関数、ネットワークアーキテクチャ、ハイパーパラメータ、データセットで検証される。
具体的には、SSGANをベースとしたCIFAR-100のFIDが11.5%、SSGANをベースとしたSTL-10のFIDが10.5%、SSGANをベースとしたLSUN-ベッドルームのFIDが13.2%である。
コードはhttps://github.com/iceli1007/DAT-GANで入手できる。
関連論文リスト
- CHAIN: Enhancing Generalization in Data-Efficient GANs via lipsCHitz continuity constrAIned Normalization [36.20084231028338]
GAN(Generative Adversarial Networks)は画像生成を著しく進歩させるが、その性能は豊富なトレーニングデータに大きく依存する。
限られたデータを持つシナリオでは、GANは差別者の過度な適合と不安定なトレーニングに苦労することが多い。
我々は、従来の中心ステップをゼロ平均正規化に置き換え、スケーリングステップでリプシッツ連続性制約を統合するCHAINを提案する。
論文 参考訳(メタデータ) (2024-03-31T01:41:36Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - Collapse by Conditioning: Training Class-conditional GANs with Limited
Data [109.30895503994687]
非条件学習を活用することにより、観測モード崩壊を効果的に防止する条件付きGAN(cGAN)のトレーニング戦略を提案する。
我々のトレーニング戦略は、無条件のGANから始まり、徐々に条件情報をジェネレータと目的関数に注入する。
安定したトレーニングだけでなく,高品質な画像を生成するために,限られたデータでcGANを訓練する手法を提案する。
論文 参考訳(メタデータ) (2022-01-17T18:59:23Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - InfoMax-GAN: Improved Adversarial Image Generation via Information
Maximization and Contrastive Learning [39.316605441868944]
GAN(Generative Adversarial Networks)は、多くのジェネレーティブモデリングアプリケーションの基本である。
本稿では,GANにおける2つの基本的な問題を同時に緩和する基本的枠組みを提案する。
提案手法は, 5つのデータセットにわたる画像合成において, GANトレーニングを著しく安定化し, GAN性能を向上させる。
論文 参考訳(メタデータ) (2020-07-09T06:56:11Z) - Improving GAN Training with Probability Ratio Clipping and Sample
Reweighting [145.5106274085799]
GAN(Generative Adversarial Network)は、不安定なトレーニングにより性能が低下することが多い。
本稿では,より優れたトレーニング安定性を享受する新しい変分GANトレーニングフレームワークを提案する。
多様な最先端のGANアーキテクチャにトレーニングアプローチを組み込むことで、幅広いタスクに対して大幅な性能向上を実現した。
論文 参考訳(メタデータ) (2020-06-12T01:39:48Z) - Training Generative Adversarial Networks with Limited Data [42.72100066471578]
限られたデータ体制におけるトレーニングを著しく安定化させる適応型識別器拡張機構を提案する。
よい結果が得られるのは、数千のトレーニングイメージだけで、多くの場合、StyleGAN2の結果に、桁違いに少ない画像でマッチする。
論文 参考訳(メタデータ) (2020-06-11T17:06:34Z) - Stabilizing Training of Generative Adversarial Nets via Langevin Stein
Variational Gradient Descent [11.329376606876101]
我々は,新しい粒子に基づく変分推論(LSVGD)によるGANトレーニングの安定化を提案する。
LSVGDのダイナミクスは暗黙の規則化を持ち、粒子の広がりと多様性を高めることができることを示す。
論文 参考訳(メタデータ) (2020-04-22T11:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。