論文の概要: Training Generative Adversarial Networks with Limited Data
- arxiv url: http://arxiv.org/abs/2006.06676v2
- Date: Wed, 7 Oct 2020 17:09:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 09:11:09.591645
- Title: Training Generative Adversarial Networks with Limited Data
- Title(参考訳): 限られたデータによる生成型adversarialネットワークの訓練
- Authors: Tero Karras, Miika Aittala, Janne Hellsten, Samuli Laine, Jaakko
Lehtinen, Timo Aila
- Abstract要約: 限られたデータ体制におけるトレーニングを著しく安定化させる適応型識別器拡張機構を提案する。
よい結果が得られるのは、数千のトレーニングイメージだけで、多くの場合、StyleGAN2の結果に、桁違いに少ない画像でマッチする。
- 参考スコア(独自算出の注目度): 42.72100066471578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training generative adversarial networks (GAN) using too little data
typically leads to discriminator overfitting, causing training to diverge. We
propose an adaptive discriminator augmentation mechanism that significantly
stabilizes training in limited data regimes. The approach does not require
changes to loss functions or network architectures, and is applicable both when
training from scratch and when fine-tuning an existing GAN on another dataset.
We demonstrate, on several datasets, that good results are now possible using
only a few thousand training images, often matching StyleGAN2 results with an
order of magnitude fewer images. We expect this to open up new application
domains for GANs. We also find that the widely used CIFAR-10 is, in fact, a
limited data benchmark, and improve the record FID from 5.59 to 2.42.
- Abstract(参考訳): あまりに少ないデータを使用するgan(generative adversarial networks)トレーニングは、通常、判別器の過剰フィッティングにつながり、トレーニングが多様化する。
限られたデータレジームでトレーニングを著しく安定化する適応的判別器拡張機構を提案する。
このアプローチでは損失関数やネットワークアーキテクチャの変更は必要とせず、スクラッチからトレーニングする場合と、既存のGANを他のデータセットで微調整する場合の両方に適用できる。
いくつかのデータセットで、数千のトレーニングイメージで良い結果が得られ、しばしばstylegan2の結果と桁違いに少ない画像で一致していることを実証した。
これはgansの新しいアプリケーションドメインを開くことを期待しています。
また、広く使われているCIFAR-10は、実際には限られたデータベンチマークであり、記録的なFIDを5.59から2.42に改善している。
関連論文リスト
- Relearning Forgotten Knowledge: on Forgetting, Overfit and Training-Free
Ensembles of DNNs [9.010643838773477]
本稿では,検証データ上での深層モデルの忘れ度をモニタする,過剰適合度定量化のための新しいスコアを提案する。
オーバーフィットは検証精度を低下させることなく発生しうることを示し,従来よりも一般的である可能性が示唆された。
我々は,1つのネットワークのトレーニング履歴のみに基づいて,新たなアンサンブル法を構築するために,我々の観測結果を用いて,トレーニング時間に追加のコストを要さず,大幅な改善を実現する。
論文 参考訳(メタデータ) (2023-10-17T09:22:22Z) - The Unreasonable Effectiveness of Fully-Connected Layers for Low-Data
Regimes [3.7189423451031356]
少数のデータから一般化する枠組みを提案する。
完全に接続されたレイヤで最新のCNNを強化し、このアーキテクチャ変更が低データ体制にもたらす大きな影響を示します。
論文 参考訳(メタデータ) (2022-10-11T17:55:10Z) - Multi-Domain Joint Training for Person Re-Identification [51.73921349603597]
ReID(Deep Learning-based person Re-IDentification)は、優れたパフォーマンスを達成するために、大量のトレーニングデータを必要とすることが多い。
多様な環境からより多くのトレーニングデータを集めることで、ReIDのパフォーマンスが向上する傾向にある。
本稿では,パラメータを様々な要因に適応させることができる,Domain-Camera-Sample Dynamic Network (DCSD) というアプローチを提案する。
論文 参考訳(メタデータ) (2022-01-06T09:20:59Z) - Class Balancing GAN with a Classifier in the Loop [58.29090045399214]
本稿では,GANを学習するための理論的動機付けクラスバランス正則化器を提案する。
我々の正規化器は、訓練済みの分類器からの知識を利用して、データセット内のすべてのクラスのバランスの取れた学習を確実にします。
複数のデータセットにまたがる既存手法よりも優れた性能を達成し,長期分布の学習表現における正規化器の有用性を実証する。
論文 参考訳(メタデータ) (2021-06-17T11:41:30Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - A New Perspective on Stabilizing GANs training: Direct Adversarial
Training [10.66166999381244]
トレーニング不安定性は、GANベースのすべてのアルゴリズムにおいて、依然としてオープンな問題の1つである。
生成装置が生成した画像は、訓練過程において識別器の逆の例のように振る舞うことがある。
本稿では,GANの訓練過程を安定化させるダイレクト・アドバイザリアル・トレーニング法を提案する。
論文 参考訳(メタデータ) (2020-08-19T02:36:53Z) - Differentiable Augmentation for Data-Efficient GAN Training [48.920992130257595]
DiffAugmentは,実検体と偽検体の両方に様々な種類の微分可能拡張を付与することにより,GANのデータ効率を向上させる簡易な手法である。
本手法は,既存の移動学習アルゴリズムと同等でありながら,事前学習することなく,100個の画像のみを用いて高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2020-06-18T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。