論文の概要: DigGAN: Discriminator gradIent Gap Regularization for GAN Training with
Limited Data
- arxiv url: http://arxiv.org/abs/2211.14694v1
- Date: Sun, 27 Nov 2022 01:03:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 16:25:01.871476
- Title: DigGAN: Discriminator gradIent Gap Regularization for GAN Training with
Limited Data
- Title(参考訳): diggan: 限定データを用いたganトレーニングのための判別子勾配ギャップ正規化
- Authors: Tiantian Fang, Ruoyu Sun, Alex Schwing
- Abstract要約: 本稿では,既存のGANに付加可能なDigGAN(DigGAN)の定式化を提案する。
DigGANは既存のGANを強化し、判別器の予測 w.r.t. 実画像と生成されたサンプル w.r.t. の勾配のノルムのギャップを狭める。
この定式化は,GANロスランドスケープ内の悪い引き込みを回避し,限られたデータが得られる場合に,GANトレーニングの結果を大幅に改善するDigGANを見出した。
- 参考スコア(独自算出の注目度): 13.50061291734299
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative adversarial nets (GANs) have been remarkably successful at
learning to sample from distributions specified by a given dataset,
particularly if the given dataset is reasonably large compared to its
dimensionality. However, given limited data, classical GANs have struggled, and
strategies like output-regularization, data-augmentation, use of pre-trained
models and pruning have been shown to lead to improvements. Notably, the
applicability of these strategies is 1) often constrained to particular
settings, e.g., availability of a pretrained GAN; or 2) increases training
time, e.g., when using pruning. In contrast, we propose a Discriminator
gradIent Gap regularized GAN (DigGAN) formulation which can be added to any
existing GAN. DigGAN augments existing GANs by encouraging to narrow the gap
between the norm of the gradient of a discriminator's prediction w.r.t.\ real
images and w.r.t.\ the generated samples. We observe this formulation to avoid
bad attractors within the GAN loss landscape, and we find DigGAN to
significantly improve the results of GAN training when limited data is
available. Code is available at \url{https://github.com/AilsaF/DigGAN}.
- Abstract(参考訳): GAN(Generative Adversarial Nets)は、与えられたデータセットによって指定された分布から、特に与えられたデータセットがその次元よりも合理的に大きい場合のサンプルを学習することに成功した。
しかし、限られたデータを考えると、古典的なGANは苦労しており、出力規則化、データ拡張、事前訓練されたモデルの使用、プルーニングといった戦略が改善につながることが示されている。
特に この戦略の適用性は
1) しばしば特定の設定(例えば、事前訓練されたGANの利用可能性など)に制約される。
2) プルーニングを使用する場合,トレーニング時間を短縮する。
これとは対照的に,既存の任意のGANに付加可能なDigGAN(DigGAN)正規化GAN(Distriminator gradIent Gap regularized GAN)の定式化を提案する。
DigGANは、判別器の予測 w.r.t.\ の勾配のノルムと、生成されたサンプル w.r.t.\ とのギャップを狭めることで既存のGANを増強する。
この定式化は,GANロスランドスケープ内の悪い引き込みを回避し,限られたデータが得られる場合に,GANトレーニングの結果を大幅に改善するDigGANを見出した。
コードは \url{https://github.com/AilsaF/DigGAN} で入手できる。
関連論文リスト
- LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Combating Mode Collapse in GANs via Manifold Entropy Estimation [70.06639443446545]
Generative Adversarial Networks (GAN) は、様々なタスクやアプリケーションにおいて魅力的な結果を示している。
GANのモード崩壊問題に対処するための新しいトレーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2022-08-25T12:33:31Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - Adaptive DropBlock Enhanced Generative Adversarial Networks for
Hyperspectral Image Classification [36.679303770326264]
本稿では,高スペクトル画像(HSI)分類のためのAdaptive DropBlock-enhanced Generative Adversarial Networks (ADGAN)を提案する。
GANの差別者は、常に矛盾し、偽のラベルをマイノリティ階級のサンプルに関連付けようとするため、分類性能を損なう。
3つのHSIデータセットによる実験結果から,ADGANは最先端のGAN法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-01-22T01:43:59Z) - Tail of Distribution GAN (TailGAN): Generative-
Adversarial-Network-Based Boundary Formation [0.0]
我々は、異常検出のためのGANに基づくテール生成モデル、TailGAN(Tail of Distribution GAN)を作成する。
TailGANを用いて、異常検出にGANを活用し、最大エントロピー正則化を使用する。
我々は,OoD(Out-of-Distribution)データを特定するためにTailGANを評価し,MNIST,CIFAR-10,Bagage X-Ray,OoDデータを用いて評価した。
論文 参考訳(メタデータ) (2021-07-24T17:29:21Z) - Improving Generative Adversarial Networks with Local Coordinate Coding [150.24880482480455]
GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
論文 参考訳(メタデータ) (2020-07-28T09:17:50Z) - On Data Augmentation for GAN Training [39.074761323958406]
本稿では,GANトレーニングにおける拡張データの利用を可能にするために,DAG(Data Augmentation Optimized for GAN)を提案する。
我々は異なるGANモデルにDAGを適用する実験を行う。
いくつかのGANモデルでDAGを使用する場合、システムは最先端のFrechet Inception Distance(FID)スコアを確立する。
論文 参考訳(メタデータ) (2020-06-09T15:19:26Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - On Leveraging Pretrained GANs for Generation with Limited Data [83.32972353800633]
生成的敵ネットワーク(GAN)は、しばしば(人間によって)実際の画像と区別できない非常に現実的な画像を生成することができる。
このように生成されたほとんどの画像はトレーニングデータセットには含まれておらず、GAN生成データでトレーニングセットを増強する可能性を示唆している。
我々は、大規模なデータセットで事前訓練された既存のGANモデルを活用し、トランスファーラーニングの概念に従って追加の知識を導入する。
限られたデータを用いた生成における提案手法の有効性を示すため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-02-26T21:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。