論文の概要: EvolGAN: Evolutionary Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2009.13311v1
- Date: Mon, 28 Sep 2020 13:31:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 21:13:02.507008
- Title: EvolGAN: Evolutionary Generative Adversarial Networks
- Title(参考訳): EvolGAN: 進化的生成的敵ネットワーク
- Authors: Baptiste Roziere and Fabien Teytaud and Vlad Hosu and Hanhe Lin and
Jeremy Rapin and Mariia Zameshina and Olivier Teytaud
- Abstract要約: そこで本研究では,小型で難解なデータセットで学習した生成的敵ネットワークの潜在空間を,品質推定器と進化的手法を用いて探索することを提案する。
この新しい手法は, 生成元の多様性を保ちながら, 極めて高品質な画像を生成する。
- 参考スコア(独自算出の注目度): 7.110311114192367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose to use a quality estimator and evolutionary methods to search the
latent space of generative adversarial networks trained on small, difficult
datasets, or both. The new method leads to the generation of significantly
higher quality images while preserving the original generator's diversity.
Human raters preferred an image from the new version with frequency 83.7pc for
Cats, 74pc for FashionGen, 70.4pc for Horses, and 69.2pc for Artworks, and
minor improvements for the already excellent GANs for faces. This approach
applies to any quality scorer and GAN generator.
- Abstract(参考訳): 本稿では,小型で難解なデータセットで学習した生成的敵ネットワークの潜伏空間の探索に品質推定器と進化的手法を用いることを提案する。
新たな手法は,生成元の多様性を保ちながら,極めて高品質な画像を生成する。
人間は、猫の周波数83.7pc、ファッションの74pc、馬の70.4pc、アートワークの69.2pc、そしてすでに優れた顔のガンの小さな改良を好みました。
このアプローチは、品質スコアとGANジェネレータに適用される。
関連論文リスト
- Autoregressive Model Beats Diffusion: Llama for Scalable Image Generation [52.509092010267665]
我々はLlamaGenを紹介した。LlamaGenは画像生成モデルの新しいファミリーで、視覚生成ドメインに対して、大規模言語モデルのオリジナルの次世代予測のパラダイムを適用している。
これは、例えば、視覚信号に誘導バイアスのないバニラ自己回帰モデルが、適切にスケーリングすれば最先端の画像生成性能を達成できるかどうか、肯定的な答えである。
論文 参考訳(メタデータ) (2024-06-10T17:59:52Z) - A Simple and Effective Baseline for Attentional Generative Adversarial
Networks [8.63558211869045]
テキスト記述を通して生成モデルを導くことで高品質な画像のテキスト・ツー・イメージモデルを構築することは革新的で挑戦的な課題である。
近年、GANトレーニングをガイドするAttnGAN、SD-GAN、Stack-GAN++が提案されている。
我々は,AttnGANの冗長構造を除去し,バックボーンネットワークを改善するために,一般的なシンプルで効果的なアイデア(1)を用いる。
モデルの性能が変化しないことを保証しながら、モデルのサイズとトレーニング効率を大幅に改善しました。
論文 参考訳(メタデータ) (2023-06-26T13:55:57Z) - StyleNAT: Giving Each Head a New Perspective [71.84791905122052]
高い効率と柔軟性を備えた高品質な画像生成をターゲットとした,StyleNATと呼ばれる新しいトランスフォーマーベースのフレームワークを提案する。
私たちのモデルの中核となるのは、ローカルおよびグローバルな情報を捉えるために注意を分割する、慎重に設計されたフレームワークです。
StyleNATはFFHQ-256で新たなSOTA FIDスコアを2.046で獲得し、StyleGAN-XLやHITやStyleSwinといったトランスフォーマーのような畳み込みモデルで先行芸術を圧倒した。
論文 参考訳(メタデータ) (2022-11-10T18:55:48Z) - Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks [54.80435295622583]
ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
論文 参考訳(メタデータ) (2022-07-18T16:29:41Z) - PAGER: Progressive Attribute-Guided Extendable Robust Image Generation [38.484332924924914]
本研究は,連続的部分空間学習(SSL)に基づく生成的モデリング手法を提案する。
文献のほとんどの生成モデルとは異なり,本手法では,基盤となるソース分布の解析や画像の合成にはニューラルネットワークを使用しない。
プログレッシブ誘導伸縮性画像生成(R)モデルと呼ばれるこの手法は、数学的透明性、プログレッシブコンテンツ生成、トレーニング時間の短縮、トレーニングサンプルの少ないロバストパフォーマンス、条件付き画像生成への拡張性に利点がある。
論文 参考訳(メタデータ) (2022-06-01T00:35:42Z) - One-Shot Adaptation of GAN in Just One CLIP [51.188396199083336]
本稿では,CLIP空間を統一した単一ショットGAN適応方式を提案する。
具体的には、CLIP誘導潜在最適化を用いて、ソースジェネレータ内の参照画像検索という2段階のトレーニング戦略を採用する。
対象のテクスチャで多様な出力を生成し,質的かつ定量的にベースラインモデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T13:03:06Z) - Evolutionary Generative Adversarial Networks with Crossover Based
Knowledge Distillation [4.044110325063562]
本稿では,進化戦略を用いてGANに広く適用可能な一般クロスオーバー演算子を提案する。
次に、それに基づいて進化的GANフレームワークC-GANを設計する。
そして、クロスオーバー演算子と進化生成逆数ネットワーク(EGAN)を組み合わせて、クロスオーバー(CE-GAN)を用いた進化生成逆数ネットワークを実装する。
論文 参考訳(メタデータ) (2021-01-27T03:24:30Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - F2GAN: Fusing-and-Filling GAN for Few-shot Image Generation [30.58721337843086]
本稿ではF2GAN(Fusing-and-Filling Generative Adrial Network)を提案する。
我々の判別器は、損失を求めるモードと逆回帰損失を求めるモードにより、生成画像の多様性を確保することができる。
論文 参考訳(メタデータ) (2020-08-05T08:47:42Z) - XingGAN for Person Image Generation [149.54517767056382]
本稿では,人物画像生成タスクのための新しいジェネレーティブ・アドバイザリアル・ネットワーク(XingGAN)を提案する。
XingGANは、人物の外観と形状をモデル化する2世代ブランチで構成されている。
提案したXingGANは,客観的な定量的スコアと主観的視覚的現実性の観点から,最先端のパフォーマンスを向上することを示す。
論文 参考訳(メタデータ) (2020-07-17T23:40:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。