論文の概要: A Survey on Leveraging Pre-trained Generative Adversarial Networks for
Image Editing and Restoration
- arxiv url: http://arxiv.org/abs/2207.10309v1
- Date: Thu, 21 Jul 2022 05:05:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 13:38:55.490638
- Title: A Survey on Leveraging Pre-trained Generative Adversarial Networks for
Image Editing and Restoration
- Title(参考訳): 画像編集・復元のための事前学習型汎用ネットワークの活用に関する調査
- Authors: Ming Liu, Yuxiang Wei, Xiaohe Wu, Wangmeng Zuo, Lei Zhang
- Abstract要約: GAN(Generative Adversarial Network)は、単純だが効果的なトレーニング機構と優れた画像生成品質により、大きな注目を集めている。
近年のGANモデルは生成した画像と実際の画像とのギャップを大幅に狭めている。
近年の多くの研究は、未学習のGANモデルと学習されたGAN先行空間を生かして、事前学習されたGANモデルを活用することへの関心が高まっている。
- 参考スコア(独自算出の注目度): 72.17890189820665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) have drawn enormous attention due to
the simple yet effective training mechanism and superior image generation
quality. With the ability to generate photo-realistic high-resolution (e.g.,
$1024\times1024$) images, recent GAN models have greatly narrowed the gaps
between the generated images and the real ones. Therefore, many recent works
show emerging interest to take advantage of pre-trained GAN models by
exploiting the well-disentangled latent space and the learned GAN priors. In
this paper, we briefly review recent progress on leveraging pre-trained
large-scale GAN models from three aspects, i.e., 1) the training of large-scale
generative adversarial networks, 2) exploring and understanding the pre-trained
GAN models, and 3) leveraging these models for subsequent tasks like image
restoration and editing. More information about relevant methods and
repositories can be found at https://github.com/csmliu/pretrained-GANs.
- Abstract(参考訳): generative adversarial networks (gans) は、単純で効果的なトレーニング機構と優れた画像生成品質のため、多大な注目を集めている。
フォトリアリスティック高解像度画像(例:1024\times1024$)を生成する能力により、最近のGANモデルは生成された画像と実際の画像とのギャップを大幅に狭めた。
したがって、近年の多くの研究は、学習されたGAN先行空間と不整合空間を利用して、事前学習されたGANモデルを活用することへの関心が高まっている。
本稿では,3つの側面から事前学習した大規模ganモデルを活用した最近の進歩を概観する。
1)大規模生成型adversarial networkの訓練
2)事前訓練されたGANモデルの探索と理解
3)画像復元や編集といった後続のタスクにこれらのモデルを活用する。
関連するメソッドやリポジトリに関する詳細は、https://github.com/csmliu/pretrained-GANsで確認できる。
関連論文リスト
- E$^{2}$GAN: Efficient Training of Efficient GANs for Image-to-Image Translation [69.72194342962615]
拡散モデルからGANを蒸留するプロセスは、より効率的にできるのか?
まず、一般化された特徴を持つベースGANモデルを構築し、微調整により異なる概念に適応し、スクラッチからトレーニングの必要性を排除した。
第2に,ベースモデル全体の微調整を行うのではなく,低ランク適応(LoRA)を簡易かつ効果的なランク探索プロセスで行う。
第3に、微調整に必要な最小限のデータ量を調査し、トレーニング時間を短縮する。
論文 参考訳(メタデータ) (2024-01-11T18:59:14Z) - Conditional Image Generation with Pretrained Generative Model [1.4685355149711303]
拡散モデルは、GANモデルと比較して高品質な画像を生成する能力で人気を集めている。
これらのモデルには膨大な量のデータ、計算資源、そして訓練を成功させるために巧妙なチューニングが必要である。
本研究では,条件付き画像生成のために,事前学習した非条件拡散モデルを活用する手法を提案する。
論文 参考訳(メタデータ) (2023-12-20T18:27:53Z) - RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - Take-A-Photo: 3D-to-2D Generative Pre-training of Point Cloud Models [97.58685709663287]
生成事前学習は、2次元視覚における基本モデルの性能を高めることができる。
3Dビジョンでは、トランスフォーマーベースのバックボーンの過度な信頼性と、点雲の秩序のない性質により、生成前のトレーニングのさらなる発展が制限されている。
本稿では,任意の点クラウドモデルに適用可能な3D-to-2D生成事前学習法を提案する。
論文 参考訳(メタデータ) (2023-07-27T16:07:03Z) - Generative Adversarial Networks [43.10140199124212]
GAN(Generative Adversarial Networks)は、高品質なデータを生成するための非常に人気のあるフレームワークである。
この章では、GANの原則を議論し、トレーニングと評価中に固有の問題をいくつか提示することで、GANを紹介します。
論文 参考訳(メタデータ) (2022-03-01T18:37:48Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。