論文の概要: Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data
- arxiv url: http://arxiv.org/abs/2111.06849v1
- Date: Fri, 12 Nov 2021 18:13:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-15 13:27:06.293845
- Title: Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data
- Title(参考訳): Deceive D:限定データを用いたGANトレーニングのための適応擬似強化
- Authors: Liming Jiang, Bo Dai, Wayne Wu, Chen Change Loy
- Abstract要約: GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 125.7135706352493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) typically require ample data for
training in order to synthesize high-fidelity images. Recent studies have shown
that training GANs with limited data remains formidable due to discriminator
overfitting, the underlying cause that impedes the generator's convergence.
This paper introduces a novel strategy called Adaptive Pseudo Augmentation
(APA) to encourage healthy competition between the generator and the
discriminator. As an alternative method to existing approaches that rely on
standard data augmentations or model regularization, APA alleviates overfitting
by employing the generator itself to augment the real data distribution with
generated images, which deceives the discriminator adaptively. Extensive
experiments demonstrate the effectiveness of APA in improving synthesis quality
in the low-data regime. We provide a theoretical analysis to examine the
convergence and rationality of our new training strategy. APA is simple and
effective. It can be added seamlessly to powerful contemporary GANs, such as
StyleGAN2, with negligible computational cost.
- Abstract(参考訳): generative adversarial networks (gans) は通常、高忠実度画像を合成するために訓練のために十分なデータを必要とする。
近年の研究では、GANを限られたデータで訓練することは、ジェネレータの収束を阻害する根本原因である判別器の過度な適合により、依然として困難であることが示されている。
本稿では,ジェネレータと識別器の健全な競争を促進するために,適応的擬似拡張法(apa)と呼ばれる新しい戦略を提案する。
標準データ拡張やモデル正規化に依存する既存のアプローチの代替方法として、apaは、ジェネレータ自体を使用して生成した画像による実際のデータ分布を増強することで過剰フィッティングを緩和し、判別器を適応的に欺く。
大規模な実験は、低データ状態における合成品質の改善におけるAPAの有効性を示す。
新たなトレーニング戦略の収束と合理性を検討するための理論的分析を提供する。
APAはシンプルで効果的です。
これは、StyleGAN2のような強力な現代のGANに、無視できる計算コストでシームレスに追加することができる。
関連論文リスト
- MCGAN: Enhancing GAN Training with Regression-Based Generator Loss [5.7645234295847345]
高忠実度データを生成する強力なツールとして,GAN(Adversarial Network)が登場している。
我々はモンテカルロガン(MCGAN)と呼ばれるアルゴリズムを提案する。
このアプローチは、革新的生成損失関数、すなわち回帰損失を利用して、回帰タスクとしてジェネレータトレーニングを再構成する。
本手法は, 有効発電機訓練のために, 判別器に弱い条件を必要とすることを示す。
論文 参考訳(メタデータ) (2024-05-27T14:15:52Z) - Bt-GAN: Generating Fair Synthetic Healthdata via Bias-transforming Generative Adversarial Networks [3.3903891679981593]
本稿では,医療領域に特化して設計されたGANベースの合成データジェネレータであるBias-transforming Generative Adversarial Networks (Bt-GAN)について述べる。
以上の結果から,Bt-GANはSOTA精度を向上し,公平性とバイアスの最小化を図った。
論文 参考訳(メタデータ) (2024-04-21T12:16:38Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Improving Adversarial Robustness by Contrastive Guided Diffusion Process [19.972628281993487]
データ生成における拡散モデルを導くために,コントラスト誘導拡散プロセス(Contrastive-Guided Diffusion Process, DP)を提案する。
生成データ間の識別性の向上は, 対向的ロバスト性の向上に不可欠であることを示す。
論文 参考訳(メタデータ) (2022-10-18T07:20:53Z) - Improving GANs with A Dynamic Discriminator [106.54552336711997]
我々は、オンザフライで調整可能な判別器は、そのような時間変化に適応できると論じる。
総合的な実証研究により、提案したトレーニング戦略がDynamicDと呼ばれ、追加のコストやトレーニング目標を発生させることなく、合成性能を向上させることが確認された。
論文 参考訳(メタデータ) (2022-09-20T17:57:33Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - HGAN: Hybrid Generative Adversarial Network [25.940501417539416]
本稿では,自己回帰モデルを用いてデータ密度推定を行うハイブリッド生成逆数ネットワーク(HGAN)を提案する。
GAN定式化における新しい深層構造は、単純なGANトレーニング手法に加えて、自己回帰モデル情報を逆向きに蒸留するために開発されている。
論文 参考訳(メタデータ) (2021-02-07T03:54:12Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。