論文の概要: Freeze the Discriminator: a Simple Baseline for Fine-Tuning GANs
- arxiv url: http://arxiv.org/abs/2002.10964v2
- Date: Fri, 28 Feb 2020 10:53:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 20:24:43.907954
- Title: Freeze the Discriminator: a Simple Baseline for Fine-Tuning GANs
- Title(参考訳): 判別器を凍結する: 微調整GANのためのシンプルなベースライン
- Authors: Sangwoo Mo, Minsu Cho, Jinwoo Shin
- Abstract要約: 判別器の冷凍下層を有するGANの簡易微調整が驚くほど良好であることを示す。
この単純なベースラインであるFreezeDは、非条件GANと条件GANの両方で使用されている従来の技術よりも大幅に優れている。
- 参考スコア(独自算出の注目度): 104.85633684716296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) have shown outstanding performance on
a wide range of problems in computer vision, graphics, and machine learning,
but often require numerous training data and heavy computational resources. To
tackle this issue, several methods introduce a transfer learning technique in
GAN training. They, however, are either prone to overfitting or limited to
learning small distribution shifts. In this paper, we show that simple
fine-tuning of GANs with frozen lower layers of the discriminator performs
surprisingly well. This simple baseline, FreezeD, significantly outperforms
previous techniques used in both unconditional and conditional GANs. We
demonstrate the consistent effect using StyleGAN and SNGAN-projection
architectures on several datasets of Animal Face, Anime Face, Oxford Flower,
CUB-200-2011, and Caltech-256 datasets. The code and results are available at
https://github.com/sangwoomo/FreezeD.
- Abstract(参考訳): GAN(Generative Adversarial Network)は、コンピュータビジョン、グラフィックス、機械学習の幅広い問題において優れた性能を示すが、多くのトレーニングデータと重い計算資源を必要とすることが多い。
この問題に対処するために、いくつかの手法がGANトレーニングに転写学習技術を導入している。
しかし、それらは過度に適合するか、小さな分散シフトを学ぶのに限られる。
本稿では, 判別器の下層を凍結したGANの簡易微調整が驚くほど良好であることを示す。
この単純なベースラインであるFreezeDは、非条件GANと条件GANの両方で使用されている従来の技術よりも大幅に優れている。
アニマルフェイス,アニメフェイス,オックスフォードフラワー,CUB-200-2011,カルテック-256の各データセットに対して,StyleGANおよびSNGANプロジェクションアーキテクチャを用いて一貫した効果を示す。
コードと結果はhttps://github.com/sangwoomo/freezedで入手できる。
関連論文リスト
- Taming the Tail in Class-Conditional GANs: Knowledge Sharing via Unconditional Training at Lower Resolutions [10.946446480162148]
GANはより多くのサンプルを持つクラスを好む傾向があり、尾クラスの低品質で多様性の低いサンプルが生成される。
そこで我々は,より豊富な学習データを持つクラスから,テールクラスが豊富な情報から借用できる,知識共有の単純かつ効果的な方法を提案する。
いくつかのロングテールベンチマークとGANアーキテクチャの実験は、生成された画像の多様性と忠実さの両方において、既存の手法よりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2024-02-26T23:03:00Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - How to train your draGAN: A task oriented solution to imbalanced
classification [15.893327571516016]
本稿では,新しいアーキテクチャであるdraGANを用いた,ユニークでパフォーマンスを重視したデータ生成戦略を提案する。
サンプルは、実際のデータと類似性ではなく、分類モデルの性能を最適化する目的で生成される。
経験的に、draGANの優位性を示すと同時に、いくつかの欠点も強調する。
論文 参考訳(メタデータ) (2022-11-18T07:37:34Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Collapse by Conditioning: Training Class-conditional GANs with Limited
Data [109.30895503994687]
非条件学習を活用することにより、観測モード崩壊を効果的に防止する条件付きGAN(cGAN)のトレーニング戦略を提案する。
我々のトレーニング戦略は、無条件のGANから始まり、徐々に条件情報をジェネレータと目的関数に注入する。
安定したトレーニングだけでなく,高品質な画像を生成するために,限られたデータでcGANを訓練する手法を提案する。
論文 参考訳(メタデータ) (2022-01-17T18:59:23Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - InfoMax-GAN: Improved Adversarial Image Generation via Information
Maximization and Contrastive Learning [39.316605441868944]
GAN(Generative Adversarial Networks)は、多くのジェネレーティブモデリングアプリケーションの基本である。
本稿では,GANにおける2つの基本的な問題を同時に緩和する基本的枠組みを提案する。
提案手法は, 5つのデータセットにわたる画像合成において, GANトレーニングを著しく安定化し, GAN性能を向上させる。
論文 参考訳(メタデータ) (2020-07-09T06:56:11Z) - GAN Compression: Efficient Architectures for Interactive Conditional
GANs [45.012173624111185]
最近のコンディショナル・ジェネレーティブ・アドバイサル・ネットワーク(cGAN)は、現代の認識CNNよりも1~2桁の計算集約性がある。
本稿では,cGANにおけるジェネレータの推論時間とモデルサイズを低減するための汎用圧縮フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-19T17:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。