論文の概要: Projected GANs Converge Faster
- arxiv url: http://arxiv.org/abs/2111.01007v1
- Date: Mon, 1 Nov 2021 15:11:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 14:33:59.616773
- Title: Projected GANs Converge Faster
- Title(参考訳): プロジェクションされたGANがより速く収束
- Authors: Axel Sauer, Kashyap Chitta, Jens M\"uller, Andreas Geiger
- Abstract要約: GAN(Generative Adversarial Networks)は高品質な画像を生成するが、訓練は難しい。
生成したサンプルと実際のサンプルを固定された事前訓練された特徴空間に投影することで、これらの問題に大きく取り組みます。
我々の投影GANは画像品質、サンプル効率、収束速度を改善する。
- 参考スコア(独自算出の注目度): 50.23237734403834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) produce high-quality images but are
challenging to train. They need careful regularization, vast amounts of
compute, and expensive hyper-parameter sweeps. We make significant headway on
these issues by projecting generated and real samples into a fixed, pretrained
feature space. Motivated by the finding that the discriminator cannot fully
exploit features from deeper layers of the pretrained model, we propose a more
effective strategy that mixes features across channels and resolutions. Our
Projected GAN improves image quality, sample efficiency, and convergence speed.
It is further compatible with resolutions of up to one Megapixel and advances
the state-of-the-art Fr\'echet Inception Distance (FID) on twenty-two benchmark
datasets. Importantly, Projected GANs match the previously lowest FIDs up to 40
times faster, cutting the wall-clock time from 5 days to less than 3 hours
given the same computational resources.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は高品質な画像を生成するが、訓練は難しい。
注意深い正規化、大量の計算、高価なハイパーパラメータスイープが必要です。
生成したサンプルと実際のサンプルを固定された事前訓練された特徴空間に投影することで、これらの問題に大きく取り組みます。
判別器は事前訓練されたモデルの深い層から特徴を完全に活用できないという発見により、チャネルと解像度をまたいだ特徴を混合するより効果的な戦略を提案する。
我々の投影GANは画像品質、サンプル効率、収束速度を改善する。
さらに、最大1メガピクセルの解像度と互換性があり、22のベンチマークデータセット上で最先端のFr\echet Inception Distance(FID)を前進させる。
重要なことは、予測されたGANはそれまでの最低値のFIDと最大40倍の速さで一致し、同じ計算リソースからウォールタイム時間を5日から3時間未満に短縮する。
関連論文リスト
- High-Precision Dichotomous Image Segmentation via Probing Diffusion Capacity [69.32473738284374]
本稿では,拡散モデルにおける事前学習されたU-Netのポテンシャルを利用する拡散駆動セグメンテーションモデルDiffDISを提案する。
SDモデルに先立って、頑健な一般化機能とリッチで多目的な画像表現を活用することにより、高忠実で詳細な生成を保ちながら、推論時間を著しく短縮する。
DIS5Kデータセットの実験は、DiffDISの優位性を示し、合理化された推論プロセスを通じて最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-14T02:49:23Z) - Faster Projected GAN: Towards Faster Few-Shot Image Generation [10.068622488926172]
本稿では,プロジェクテッドGANに基づく高速プロジェクテッドGANと呼ばれる改良型GANネットワークモデルを提案する。
深度分離可能な畳み込み(DSC)を導入することにより、投影されたGANのパラメータの数を削減し、トレーニング速度を加速し、メモリを節約する。
論文 参考訳(メタデータ) (2024-01-23T07:55:27Z) - Generative Adversarial Super-Resolution at the Edge with Knowledge
Distillation [1.3764085113103222]
シングルイメージのスーパーソリューションは、信頼できるビジュアルストリームが必要な環境でのロボットタスクをサポートすることができる。
我々は,EdgeSRGANと呼ばれるリアルタイム超解法のための効率的な生成逆ネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-09-07T10:58:41Z) - Time Efficient Training of Progressive Generative Adversarial Network
using Depthwise Separable Convolution and Super Resolution Generative
Adversarial Network [0.0]
本稿では,プログレッシブGANと若干の修正とスーパーレゾリューションGANを組み合わせた新しいパイプラインを提案する。
スーパーレゾリューションGANは低解像度画像を高解像度画像にサンプリングし、トレーニング時間を指数関数的に短縮するのに有用な資源であることが証明できる。
論文 参考訳(メタデータ) (2022-02-24T19:53:37Z) - FMD-cGAN: Fast Motion Deblurring using Conditional Generative
Adversarial Networks [26.878173373199786]
本稿では,1枚の画像の視覚的動きを識別するFMD-cGAN(Fast Motion Deblurring-Conditional Generative Adversarial Network)を提案する。
FMD-cGANは、画像が損なわれた後、印象的な構造的類似性と視覚的外観を提供する。
論文 参考訳(メタデータ) (2021-11-30T14:30:44Z) - Improved Transformer for High-Resolution GANs [69.42469272015481]
この課題に対処するために、Transformerに2つの重要な要素を紹介します。
実験で提案したHiTは、条件のないImageNetの31.87と2.95のFIDスコアをそれぞれ128×128$とFFHQの256×256$で達成していることを示す。
論文 参考訳(メタデータ) (2021-06-14T17:39:49Z) - Fourier Space Losses for Efficient Perceptual Image Super-Resolution [131.50099891772598]
提案した損失関数の適用のみで,最近導入された効率的なジェネレータアーキテクチャの性能向上が可能であることを示す。
フーリエ空間における周波数に対する損失の直接的強調は知覚的画質を著しく向上させることを示す。
訓練されたジェネレータは、最先端の知覚的SR法である RankSRGAN と SRFlow よりも2.4倍、48倍高速である。
論文 参考訳(メタデータ) (2021-06-01T20:34:52Z) - TWIST-GAN: Towards Wavelet Transform and Transferred GAN for
Spatio-Temporal Single Image Super Resolution [4.622977798361014]
単一画像スーパーレゾリューション(sisr)は、空間解像度の低いリモートセンシング画像から、微細な空間解像度を持つ高解像度画像を生成する。
深層学習とGAN(Generative Adversarial Network)は、単一画像超解像(SISR)の課題を突破した。
論文 参考訳(メタデータ) (2021-04-20T22:12:38Z) - Thinking Fast and Slow: Efficient Text-to-Visual Retrieval with
Transformers [115.90778814368703]
目的は,大規模画像とビデオデータセットの言語検索である。
このタスクでは、独立してテキストとビジョンを共同埋め込み空間 a.k.a にマッピングする。
デュアルエンコーダは 検索スケールとして魅力的です
視覚テキスト変換器をクロスアテンションで使用する別のアプローチは、関節埋め込みよりも精度が大幅に向上する。
論文 参考訳(メタデータ) (2021-03-30T17:57:08Z) - Improving the Speed and Quality of GAN by Adversarial Training [87.70013107142142]
我々は,GAN訓練の高速化と品質向上を目的としたFastGANを開発した。
当社のトレーニングアルゴリズムは,2-4GPUを必要とすることによって,ImageNetのトレーニングを一般向けに提供しています。
論文 参考訳(メタデータ) (2020-08-07T20:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。