論文の概要: Image Synthesis with Adversarial Networks: a Comprehensive Survey and
Case Studies
- arxiv url: http://arxiv.org/abs/2012.13736v1
- Date: Sat, 26 Dec 2020 13:30:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 01:07:53.884104
- Title: Image Synthesis with Adversarial Networks: a Comprehensive Survey and
Case Studies
- Title(参考訳): 逆ネットワークを用いた画像合成:包括的調査とケーススタディ
- Authors: Pourya Shamsolmoali, Masoumeh Zareapoor, Eric Granger, Huiyu Zhou,
Ruili Wang, M. Emre Celebi and Jie Yang
- Abstract要約: GAN(Generative Adversarial Networks)は、コンピュータビジョン、医学、自然言語処理など、さまざまなアプリケーション分野で非常に成功しています。
GANは、意味的に意味のあるサンプルを合成する複雑な分布を学習するための強力なモデルである。
本調査では,現時点の高速なGANの開発状況を踏まえ,画像合成の敵モデルに関する総合的なレビューを行う。
- 参考スコア(独自算出の注目度): 41.00383742615389
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative Adversarial Networks (GANs) have been extremely successful in
various application domains such as computer vision, medicine, and natural
language processing. Moreover, transforming an object or person to a desired
shape become a well-studied research in the GANs. GANs are powerful models for
learning complex distributions to synthesize semantically meaningful samples.
However, there is a lack of comprehensive review in this field, especially lack
of a collection of GANs loss-variant, evaluation metrics, remedies for diverse
image generation, and stable training. Given the current fast GANs development,
in this survey, we provide a comprehensive review of adversarial models for
image synthesis. We summarize the synthetic image generation methods, and
discuss the categories including image-to-image translation, fusion image
generation, label-to-image mapping, and text-to-image translation. We organize
the literature based on their base models, developed ideas related to
architectures, constraints, loss functions, evaluation metrics, and training
datasets. We present milestones of adversarial models, review an extensive
selection of previous works in various categories, and present insights on the
development route from the model-based to data-driven methods. Further, we
highlight a range of potential future research directions. One of the unique
features of this review is that all software implementations of these GAN
methods and datasets have been collected and made available in one place at
https://github.com/pshams55/GAN-Case-Study.
- Abstract(参考訳): generative adversarial networks (gans) はコンピュータビジョン、医学、自然言語処理といった様々なアプリケーションドメインで非常に成功している。
さらに、オブジェクトや人物を望ましい形に変えることは、GANにおいてよく研究される研究になる。
GANは複雑な分布を学習して意味のあるサンプルを合成する強力なモデルである。
しかし、この分野には包括的なレビューの欠如、特にgans損失変動のコレクションの欠如、評価メトリクス、多様な画像生成のための修正、安定したトレーニングがある。
本調査では,現時点の高速なGANの開発状況を踏まえ,画像合成の敵モデルに関する総合的なレビューを行う。
合成画像生成法を要約し,画像間変換,融合画像生成,ラベル間マッピング,テキスト間変換などのカテゴリについて考察する。
基礎モデルに基づいて文献を整理し,アーキテクチャ,制約,損失関数,評価指標,データセットの学習に関するアイデアを考案した。
本稿では, 敵モデルのマイルストーン, 様々なカテゴリにおける先行作品の広範な選択, モデルベースからデータ駆動手法への開発経路に関する知見について述べる。
さらに,今後の研究の方向性についても注目する。
このレビューのユニークな特徴の1つは、これらのGANメソッドとデータセットのすべてのソフトウェア実装が収集され、https://github.com/pshams55/GAN-Case-Studyで一箇所で利用可能になったことである。
関連論文リスト
- Generative Adversarial Networks for Image Super-Resolution: A Survey [101.39605080291783]
単一画像超解像(SISR)は画像処理の分野で重要な役割を果たしている。
近年のGAN(Generative Adversarial Network)は,小サンプルを用いた低解像度画像に対して優れた結果が得られる。
本稿では,異なる視点からGANの比較研究を行う。
論文 参考訳(メタデータ) (2022-04-28T16:35:04Z) - Comparison and Analysis of Image-to-Image Generative Adversarial
Networks: A Survey [0.0]
GAN(Generative Adversarial Networks)は近年,画像から画像への翻訳を行う効果的な手法を導入している。
本稿では、Pix2Px、CycleGAN、CoGAN、StarGAN、MUNIT、StarGAN2、DA-GAN、Self Attention GANの8つの画像対画像生成対応ネットワークを調査し、分析する。
これらのモデルはそれぞれ、最先端の結果を示し、画像から画像へのGANを構築するための新しいテクニックを導入した。
論文 参考訳(メタデータ) (2021-12-23T15:11:18Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Assessing a Single Image in Reference-Guided Image Synthesis [14.936460594115953]
本稿では,単一生成画像の品質を定量的に評価するための,参照誘導画像合成アセスメント(RISA)を提案する。
このアノテーションは監視信号として大きすぎるため、1)粗いラベルを洗練するためのピクセルワイズスキームと、2)ナイーブ回帰器を置き換える複数のバイナリ分類器の2つの手法を導入する。
RISAは人間の好みと非常に整合しており、モデル間での転送も良好である。
論文 参考訳(メタデータ) (2021-12-08T08:22:14Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - MOGAN: Morphologic-structure-aware Generative Learning from a Single
Image [59.59698650663925]
近年,1つの画像のみに基づく生成モデルによる完全学習が提案されている。
多様な外観のランダムなサンプルを生成するMOGANというMOrphologic-structure-aware Generative Adversarial Networkを紹介します。
合理的な構造の維持や外観の変化など、内部機能に重点を置いています。
論文 参考訳(メタデータ) (2021-03-04T12:45:23Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Adversarial Text-to-Image Synthesis: A Review [7.593633267653624]
我々は,5年前に始まった対人テキスト・画像合成モデルの状況,その発展を文脈的に把握し,その監督レベルに基づく分類法を提案する。
我々は,より優れたデータセットや評価指標の開発から,アーキテクチャ設計やモデルトレーニングの改善の可能性に至るまで,テキスト・ツー・イメージ合成モデルの評価,欠点の強調,新たな研究領域の特定に向けた現在の戦略を批判的に検討する。
本総説は, テキストと画像の合成に焦点をあてた, 生成的敵ネットワークに関する過去の調査を補完するものである。
論文 参考訳(メタデータ) (2021-01-25T09:58:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。