論文の概要: Differentiable Augmentation for Data-Efficient GAN Training
- arxiv url: http://arxiv.org/abs/2006.10738v4
- Date: Mon, 7 Dec 2020 05:51:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 13:42:45.613896
- Title: Differentiable Augmentation for Data-Efficient GAN Training
- Title(参考訳): データ効率の良いGANトレーニングのための微分拡張
- Authors: Shengyu Zhao, Zhijian Liu, Ji Lin, Jun-Yan Zhu, Song Han
- Abstract要約: DiffAugmentは,実検体と偽検体の両方に様々な種類の微分可能拡張を付与することにより,GANのデータ効率を向上させる簡易な手法である。
本手法は,既存の移動学習アルゴリズムと同等でありながら,事前学習することなく,100個の画像のみを用いて高忠実度画像を生成することができる。
- 参考スコア(独自算出の注目度): 48.920992130257595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of generative adversarial networks (GANs) heavily
deteriorates given a limited amount of training data. This is mainly because
the discriminator is memorizing the exact training set. To combat it, we
propose Differentiable Augmentation (DiffAugment), a simple method that
improves the data efficiency of GANs by imposing various types of
differentiable augmentations on both real and fake samples. Previous attempts
to directly augment the training data manipulate the distribution of real
images, yielding little benefit; DiffAugment enables us to adopt the
differentiable augmentation for the generated samples, effectively stabilizes
training, and leads to better convergence. Experiments demonstrate consistent
gains of our method over a variety of GAN architectures and loss functions for
both unconditional and class-conditional generation. With DiffAugment, we
achieve a state-of-the-art FID of 6.80 with an IS of 100.8 on ImageNet 128x128
and 2-4x reductions of FID given 1,000 images on FFHQ and LSUN. Furthermore,
with only 20% training data, we can match the top performance on CIFAR-10 and
CIFAR-100. Finally, our method can generate high-fidelity images using only 100
images without pre-training, while being on par with existing transfer learning
algorithms. Code is available at
https://github.com/mit-han-lab/data-efficient-gans.
- Abstract(参考訳): 生成的敵ネットワーク(gans)の性能は、限られたトレーニングデータによって著しく低下する。
これは主に、判別者が正確な訓練セットを記憶しているためである。
そこで本研究では,実検体と偽検体の両方に様々な種類の微分可能拡張を付与することにより,GANのデータ効率を向上させる簡易な手法であるDiffAugment(DiffAugment)を提案する。
DiffAugmentは、生成したサンプルに対して差別化可能な拡張を適用できるようにし、トレーニングを効果的に安定化させ、より良い収束をもたらす。
実験により,GANアーキテクチャと非条件およびクラス条件の生成における損失関数に対して,本手法が一貫した利得を示す。
DiffAugmentでは、ImageNet 128x128でISが100.8、FFHQとLSUNで1000の画像に対してFIDが2-4倍の6.80の最先端FIDを実現している。
さらに、トレーニングデータは20%に過ぎず、CIFAR-10とCIFAR-100の上位性能と一致させることができる。
最後に,既存の移動学習アルゴリズムと同等でありながら,事前学習せずに100個の画像のみを用いて高忠実度画像を生成する。
コードはhttps://github.com/mit-han-lab/data- efficient-gansで入手できる。
関連論文リスト
- ACT-Diffusion: Efficient Adversarial Consistency Training for One-step Diffusion Models [59.90959789767886]
整合性トレーニング損失の最適化は,目標分布と生成分布とのワッサーシュタイン距離を最小化することを示す。
CIFAR10 と ImageNet 64$times$64 と LSUN Cat 256$times$256 データセットの FID スコアを改善する。
論文 参考訳(メタデータ) (2023-11-23T16:49:06Z) - Improving Visual Representation Learning through Perceptual
Understanding [0.0]
本稿では,より高度なシーンレベルの特徴の学習を明示的に奨励することにより,モデルによって学習された表現を改善するマスク付きオートエンコーダ(MAE)の拡張を提案する。
我々はImageNet-1Kで78.1%の精度で線形探索を行い、微調整時に88.1%の精度を達成し、他の下流タスクも同様の結果を得た。
論文 参考訳(メタデータ) (2022-12-30T00:59:46Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - Data-Efficient Instance Generation from Instance Discrimination [40.71055888512495]
本稿では,インスタンス識別に基づくデータ効率の高いインスタンス生成手法を提案する。
本研究では,インスタンス識別に基づくデータ効率の高いインスタンス生成(InsGen)手法を提案する。
論文 参考訳(メタデータ) (2021-06-08T17:52:59Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - Dataset Condensation with Differentiable Siamese Augmentation [30.571335208276246]
大規模トレーニングセットを,ディープニューラルネットワークのトレーニングに使用可能な,はるかに小さな合成セットに集約することに注力する。
より有益な合成画像の合成にデータ拡張を有効活用できる微分可能なSiamese Augmentationを提案する。
本手法がMNIST, FashionMNIST, SVHN, CIFAR10に対して99.6%, 94.9%, 88.5%, 71.5%の相対的性能をそれぞれ達成していることを1%未満のデータで示した。
論文 参考訳(メタデータ) (2021-02-16T16:32:21Z) - Does Data Augmentation Benefit from Split BatchNorms [29.134017115737507]
State-of-the-art data augmentationはトレーニングイメージを強く歪ませ、トレーニング中に見られる例と推論の間に相違をもたらす。
本稿では, 配信外, 強化画像に対する補助的BatchNormを提案する。
この手法により,CIFAR-10,CIFAR-100,ImageNetなどの画像分類ベンチマークの性能が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2020-10-15T15:00:43Z) - Syn2Real Transfer Learning for Image Deraining using Gaussian Processes [92.15895515035795]
CNNに基づく画像デライニング手法は,再現誤差や視覚的品質の点で優れた性能を発揮している。
実世界の完全ラベル付き画像デライニングデータセットを取得する上での課題により、既存の手法は合成されたデータのみに基づいて訓練される。
本稿では,ガウス過程に基づく半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T00:33:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。