論文の概要: Image Synthesis with Adversarial Networks: a Comprehensive Survey and
Case Studies
- arxiv url: http://arxiv.org/abs/2012.13736v1
- Date: Sat, 26 Dec 2020 13:30:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 01:07:53.884104
- Title: Image Synthesis with Adversarial Networks: a Comprehensive Survey and
Case Studies
- Title(参考訳): 逆ネットワークを用いた画像合成:包括的調査とケーススタディ
- Authors: Pourya Shamsolmoali, Masoumeh Zareapoor, Eric Granger, Huiyu Zhou,
Ruili Wang, M. Emre Celebi and Jie Yang
- Abstract要約: GAN(Generative Adversarial Networks)は、コンピュータビジョン、医学、自然言語処理など、さまざまなアプリケーション分野で非常に成功しています。
GANは、意味的に意味のあるサンプルを合成する複雑な分布を学習するための強力なモデルである。
本調査では,現時点の高速なGANの開発状況を踏まえ,画像合成の敵モデルに関する総合的なレビューを行う。
- 参考スコア(独自算出の注目度): 41.00383742615389
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative Adversarial Networks (GANs) have been extremely successful in
various application domains such as computer vision, medicine, and natural
language processing. Moreover, transforming an object or person to a desired
shape become a well-studied research in the GANs. GANs are powerful models for
learning complex distributions to synthesize semantically meaningful samples.
However, there is a lack of comprehensive review in this field, especially lack
of a collection of GANs loss-variant, evaluation metrics, remedies for diverse
image generation, and stable training. Given the current fast GANs development,
in this survey, we provide a comprehensive review of adversarial models for
image synthesis. We summarize the synthetic image generation methods, and
discuss the categories including image-to-image translation, fusion image
generation, label-to-image mapping, and text-to-image translation. We organize
the literature based on their base models, developed ideas related to
architectures, constraints, loss functions, evaluation metrics, and training
datasets. We present milestones of adversarial models, review an extensive
selection of previous works in various categories, and present insights on the
development route from the model-based to data-driven methods. Further, we
highlight a range of potential future research directions. One of the unique
features of this review is that all software implementations of these GAN
methods and datasets have been collected and made available in one place at
https://github.com/pshams55/GAN-Case-Study.
- Abstract(参考訳): generative adversarial networks (gans) はコンピュータビジョン、医学、自然言語処理といった様々なアプリケーションドメインで非常に成功している。
さらに、オブジェクトや人物を望ましい形に変えることは、GANにおいてよく研究される研究になる。
GANは複雑な分布を学習して意味のあるサンプルを合成する強力なモデルである。
しかし、この分野には包括的なレビューの欠如、特にgans損失変動のコレクションの欠如、評価メトリクス、多様な画像生成のための修正、安定したトレーニングがある。
本調査では,現時点の高速なGANの開発状況を踏まえ,画像合成の敵モデルに関する総合的なレビューを行う。
合成画像生成法を要約し,画像間変換,融合画像生成,ラベル間マッピング,テキスト間変換などのカテゴリについて考察する。
基礎モデルに基づいて文献を整理し,アーキテクチャ,制約,損失関数,評価指標,データセットの学習に関するアイデアを考案した。
本稿では, 敵モデルのマイルストーン, 様々なカテゴリにおける先行作品の広範な選択, モデルベースからデータ駆動手法への開発経路に関する知見について述べる。
さらに,今後の研究の方向性についても注目する。
このレビューのユニークな特徴の1つは、これらのGANメソッドとデータセットのすべてのソフトウェア実装が収集され、https://github.com/pshams55/GAN-Case-Studyで一箇所で利用可能になったことである。
関連論文リスト
- RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - BioGAN: An unpaired GAN-based image to image translation model for
microbiological images [1.6427658855248812]
微生物画像のための画像翻訳モデルとして,未ペアのGAN(Generative Adversarial Network)画像を開発した。
本稿では,実験室で撮影された画像の高レベルな特徴をフィールド画像に変換するために,適応的・知覚的損失を利用したGANモデルBioGANの設計を提案する。
論文 参考訳(メタデータ) (2023-06-09T19:30:49Z) - Investigating GANsformer: A Replication Study of a State-of-the-Art
Image Generation Model [0.0]
我々は、オリジナルのGANネットワークであるGANformerの新たなバリエーションを再現し、評価する。
リソースと時間制限のため、ネットワークのトレーニング時間、データセットタイプ、サイズを制限しなければなりませんでした。
論文 参考訳(メタデータ) (2023-03-15T12:51:16Z) - Intriguing Property and Counterfactual Explanation of GAN for Remote Sensing Image Generation [25.96740500337747]
GAN(Generative Adversarial Network)は、自然画像の分野で顕著な進歩を遂げている。
GANモデルは、自然な画像生成よりも、RS画像生成のためのトレーニングデータのサイズに敏感である。
本稿では,一様正則化(UR)とエントロピー正則化(ER)という2つの革新的な調整手法を提案する。
論文 参考訳(メタデータ) (2023-03-09T13:22:50Z) - Multimodal Image Synthesis and Editing: The Generative AI Era [131.9569600472503]
マルチモーダル画像合成と編集は 近年 ホットな研究テーマになっている。
近年のマルチモーダル画像合成・編集の進歩を包括的に理解している。
ベンチマークデータセットと評価指標と,それに対応する実験結果について述べる。
論文 参考訳(メタデータ) (2021-12-27T10:00:16Z) - Comparison and Analysis of Image-to-Image Generative Adversarial
Networks: A Survey [0.0]
GAN(Generative Adversarial Networks)は近年,画像から画像への翻訳を行う効果的な手法を導入している。
本稿では、Pix2Px、CycleGAN、CoGAN、StarGAN、MUNIT、StarGAN2、DA-GAN、Self Attention GANの8つの画像対画像生成対応ネットワークを調査し、分析する。
これらのモデルはそれぞれ、最先端の結果を示し、画像から画像へのGANを構築するための新しいテクニックを導入した。
論文 参考訳(メタデータ) (2021-12-23T15:11:18Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - MOGAN: Morphologic-structure-aware Generative Learning from a Single
Image [59.59698650663925]
近年,1つの画像のみに基づく生成モデルによる完全学習が提案されている。
多様な外観のランダムなサンプルを生成するMOGANというMOrphologic-structure-aware Generative Adversarial Networkを紹介します。
合理的な構造の維持や外観の変化など、内部機能に重点を置いています。
論文 参考訳(メタデータ) (2021-03-04T12:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。