論文の概要: Improving the Speed and Quality of GAN by Adversarial Training
- arxiv url: http://arxiv.org/abs/2008.03364v1
- Date: Fri, 7 Aug 2020 20:21:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 00:26:51.588140
- Title: Improving the Speed and Quality of GAN by Adversarial Training
- Title(参考訳): 対人訓練によるGANの高速化と品質向上
- Authors: Jiachen Zhong, Xuanqing Liu, Cho-Jui Hsieh
- Abstract要約: 我々は,GAN訓練の高速化と品質向上を目的としたFastGANを開発した。
当社のトレーニングアルゴリズムは,2-4GPUを必要とすることによって,ImageNetのトレーニングを一般向けに提供しています。
- 参考スコア(独自算出の注目度): 87.70013107142142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GAN) have shown remarkable results in image
generation tasks. High fidelity class-conditional GAN methods often rely on
stabilization techniques by constraining the global Lipschitz continuity. Such
regularization leads to less expressive models and slower convergence speed;
other techniques, such as the large batch training, require unconventional
computing power and are not widely accessible. In this paper, we develop an
efficient algorithm, namely FastGAN (Free AdverSarial Training), to improve the
speed and quality of GAN training based on the adversarial training technique.
We benchmark our method on CIFAR10, a subset of ImageNet, and the full ImageNet
datasets. We choose strong baselines such as SNGAN and SAGAN; the results
demonstrate that our training algorithm can achieve better generation quality
(in terms of the Inception score and Frechet Inception distance) with less
overall training time. Most notably, our training algorithm brings ImageNet
training to the broader public by requiring 2-4 GPUs.
- Abstract(参考訳): generative adversarial networks (gan) は画像生成タスクにおいて顕著な結果を示している。
高忠実度クラス条件付きGAN法は、大域リプシッツ連続性を制約することによって安定化技術に依存することが多い。
このような正規化は、表現力の少ないモデルと収束速度の遅いものにつながり、大規模なバッチトレーニングのような他の手法では、従来の計算能力を必要としないため、広くアクセスできない。
本稿では,GANトレーニングの高速化と品質向上を図るため,FastGAN(Free AdverSarial Training)という効率的なアルゴリズムを開発した。
我々は、この手法を、ImageNetのサブセットであるCIFAR10と、完全なImageNetデータセットでベンチマークする。
SNGANやSAGANのような強力なベースラインを選択することで、トレーニングアルゴリズムはより優れた生成品質(インセプションスコアとFrechetインセプション距離)を全体のトレーニング時間で実現できることを示す。
最も注目すべきは、私たちのトレーニングアルゴリズムが2-4GPUを必要とすることで、ImageNetのトレーニングを一般向けに提供しています。
関連論文リスト
- ParaGAN: A Scalable Distributed Training Framework for Generative Adversarial Networks [8.736828068085263]
ParaGANは、非同期トレーニングと非対称最適化ポリシーを活用して、GANトレーニングを加速するスケーラブルな分散GANトレーニングフレームワークである。
ParaGANでは,BigGANのトレーニング時間を15日から14時間に短縮し,91%のスケーリング効率を実現した。
ParaGANは、BigGANを使った前例のない高解像度画像生成を可能にする。
論文 参考訳(メタデータ) (2024-11-06T15:40:46Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Always-Sparse Training by Growing Connections with Guided Stochastic
Exploration [46.4179239171213]
本研究では,より大規模かつスペーサーなモデルへのスケーリングに優れる,効率的な常時スパーストレーニングアルゴリズムを提案する。
我々は,VGGモデルとVTモデルを用いて,CIFAR-10/100 と ImageNet の手法を評価し,様々なスペーサー化手法と比較した。
論文 参考訳(メタデータ) (2024-01-12T21:32:04Z) - E$^{2}$GAN: Efficient Training of Efficient GANs for Image-to-Image Translation [69.72194342962615]
拡散モデルからGANを蒸留するプロセスは、より効率的にできるのか?
まず、一般化された特徴を持つベースGANモデルを構築し、微調整により異なる概念に適応し、スクラッチからトレーニングの必要性を排除した。
第2に,ベースモデル全体の微調整を行うのではなく,低ランク適応(LoRA)を簡易かつ効果的なランク探索プロセスで行う。
第3に、微調整に必要な最小限のデータ量を調査し、トレーニング時間を短縮する。
論文 参考訳(メタデータ) (2024-01-11T18:59:14Z) - Efficient Diffusion Training via Min-SNR Weighting Strategy [78.5801305960993]
拡散学習をマルチタスク学習問題として扱い,Min-SNR-$gamma$と呼ばれるシンプルなアプローチを導入する。
本結果は,従来の重み付け手法よりも3.4$times$高速で収束速度が大幅に向上したことを示す。
さらに効果的で、ImageNetの256times256$ベンチマークで2.06の新たなFIDスコアを達成した。
論文 参考訳(メタデータ) (2023-03-16T17:59:56Z) - Time Efficient Training of Progressive Generative Adversarial Network
using Depthwise Separable Convolution and Super Resolution Generative
Adversarial Network [0.0]
本稿では,プログレッシブGANと若干の修正とスーパーレゾリューションGANを組み合わせた新しいパイプラインを提案する。
スーパーレゾリューションGANは低解像度画像を高解像度画像にサンプリングし、トレーニング時間を指数関数的に短縮するのに有用な資源であることが証明できる。
論文 参考訳(メタデータ) (2022-02-24T19:53:37Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - Towards Faster and Stabilized GAN Training for High-fidelity Few-shot
Image Synthesis [21.40315235087551]
1024*1024解像度で優れた品質を得る軽量GAN構造を提案します。
データとコンピューティングの予算が限られている場合、私たちのモデルが最先端のstylegan2よりも優れたパフォーマンスを示します。
論文 参考訳(メタデータ) (2021-01-12T22:02:54Z) - Improving GAN Training with Probability Ratio Clipping and Sample
Reweighting [145.5106274085799]
GAN(Generative Adversarial Network)は、不安定なトレーニングにより性能が低下することが多い。
本稿では,より優れたトレーニング安定性を享受する新しい変分GANトレーニングフレームワークを提案する。
多様な最先端のGANアーキテクチャにトレーニングアプローチを組み込むことで、幅広いタスクに対して大幅な性能向上を実現した。
論文 参考訳(メタデータ) (2020-06-12T01:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。