論文の概要: Towards Faster and Stabilized GAN Training for High-fidelity Few-shot
Image Synthesis
- arxiv url: http://arxiv.org/abs/2101.04775v1
- Date: Tue, 12 Jan 2021 22:02:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 01:53:05.601134
- Title: Towards Faster and Stabilized GAN Training for High-fidelity Few-shot
Image Synthesis
- Title(参考訳): 高精細画像合成のための高速安定化GAN訓練に向けて
- Authors: Bingchen Liu, Yizhe Zhu, Kunpeng Song, Ahmed Elgammal
- Abstract要約: 1024*1024解像度で優れた品質を得る軽量GAN構造を提案します。
データとコンピューティングの予算が限られている場合、私たちのモデルが最先端のstylegan2よりも優れたパフォーマンスを示します。
- 参考スコア(独自算出の注目度): 21.40315235087551
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training Generative Adversarial Networks (GAN) on high-fidelity images
usually requires large-scale GPU-clusters and a vast number of training images.
In this paper, we study the few-shot image synthesis task for GAN with minimum
computing cost. We propose a light-weight GAN structure that gains superior
quality on 1024*1024 resolution. Notably, the model converges from scratch with
just a few hours of training on a single RTX-2080 GPU, and has a consistent
performance, even with less than 100 training samples. Two technique designs
constitute our work, a skip-layer channel-wise excitation module and a
self-supervised discriminator trained as a feature-encoder. With thirteen
datasets covering a wide variety of image domains (The datasets and code are
available at: https://github.com/odegeasslbc/FastGAN-pytorch), we show our
model's superior performance compared to the state-of-the-art StyleGAN2, when
data and computing budget are limited.
- Abstract(参考訳): 高忠実度画像に対するGAN(Generative Adversarial Networks)のトレーニングは通常、大規模なGPUクラスタと大量のトレーニングイメージを必要とする。
本稿では,最小計算コストでganの少数ショット画像合成タスクについて検討する。
1024*1024の解像度で優れた品質が得られる軽量gan構造を提案する。
特に、モデルは1つのRTX-2080 GPUでわずか数時間のトレーニングでゼロから収束し、100以下のトレーニングサンプルでも一貫したパフォーマンスを持つ。
機能エンコーダとして訓練されたスキップ層チャネル方向励振モジュールと自己教師付き判別器である。
さまざまなイメージドメインをカバーする13のデータセット(データセットとコードはhttps://github.com/odegeasslbc/fastgan-pytorchで利用可能)では、データとコンピューティング予算が限られている場合、最先端のstylegan2よりも優れたパフォーマンスを示しています。
関連論文リスト
- CtrLoRA: An Extensible and Efficient Framework for Controllable Image Generation [69.43106794519193]
本稿では,複数のベース条件からイメージ・ツー・イメージ生成の共通知識を学習するために,ベース制御ネットを訓練するCtrLoRAフレームワークを提案する。
学習可能なパラメータをControlNetと比較して90%削減し,モデルの重み付けとデプロイのしきい値を大幅に下げる。
論文 参考訳(メタデータ) (2024-10-12T07:04:32Z) - E$^{2}$GAN: Efficient Training of Efficient GANs for Image-to-Image Translation [69.72194342962615]
拡散モデルからGANを蒸留するプロセスは、より効率的にできるのか?
まず、一般化された特徴を持つベースGANモデルを構築し、微調整により異なる概念に適応し、スクラッチからトレーニングの必要性を排除した。
第2に,ベースモデル全体の微調整を行うのではなく,低ランク適応(LoRA)を簡易かつ効果的なランク探索プロセスで行う。
第3に、微調整に必要な最小限のデータ量を調査し、トレーニング時間を短縮する。
論文 参考訳(メタデータ) (2024-01-11T18:59:14Z) - Wuerstchen: An Efficient Architecture for Large-Scale Text-to-Image
Diffusion Models [6.821399706256863]
W"urstchen"は、競争性能と前例のない費用対効果を組み合わせたテキスト対画像合成の新しいアーキテクチャである。
我々の研究の重要な貢献は、詳細だが非常にコンパクトなセマンティックイメージ表現を学習する潜伏拡散技術を開発することである。
論文 参考訳(メタデータ) (2023-06-01T13:00:53Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - Improving the Speed and Quality of GAN by Adversarial Training [87.70013107142142]
我々は,GAN訓練の高速化と品質向上を目的としたFastGANを開発した。
当社のトレーニングアルゴリズムは,2-4GPUを必要とすることによって,ImageNetのトレーニングを一般向けに提供しています。
論文 参考訳(メタデータ) (2020-08-07T20:21:31Z) - Training End-to-end Single Image Generators without GANs [27.393821783237186]
AugurOneは、単一画像生成モデルをトレーニングするための新しいアプローチである。
提案手法は,入力画像の非アフィン強化を用いて,アップスケーリングニューラルネットワークを訓練する。
制御画像合成が可能なコンパクト潜在空間を共同で学習する。
論文 参考訳(メタデータ) (2020-04-07T17:58:03Z) - GAN Compression: Efficient Architectures for Interactive Conditional
GANs [45.012173624111185]
最近のコンディショナル・ジェネレーティブ・アドバイサル・ネットワーク(cGAN)は、現代の認識CNNよりも1~2桁の計算集約性がある。
本稿では,cGANにおけるジェネレータの推論時間とモデルサイズを低減するための汎用圧縮フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-19T17:59:05Z) - Freeze the Discriminator: a Simple Baseline for Fine-Tuning GANs [104.85633684716296]
判別器の冷凍下層を有するGANの簡易微調整が驚くほど良好であることを示す。
この単純なベースラインであるFreezeDは、非条件GANと条件GANの両方で使用されている従来の技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-02-25T15:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。