論文の概要: Comparison and Analysis of Image-to-Image Generative Adversarial
Networks: A Survey
- arxiv url: http://arxiv.org/abs/2112.12625v1
- Date: Thu, 23 Dec 2021 15:11:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 19:05:29.846459
- Title: Comparison and Analysis of Image-to-Image Generative Adversarial
Networks: A Survey
- Title(参考訳): 画像と画像の敵対的ネットワークの比較と解析:調査
- Authors: Sagar Saxena, Mohammad Nayeem Teli
- Abstract要約: GAN(Generative Adversarial Networks)は近年,画像から画像への翻訳を行う効果的な手法を導入している。
本稿では、Pix2Px、CycleGAN、CoGAN、StarGAN、MUNIT、StarGAN2、DA-GAN、Self Attention GANの8つの画像対画像生成対応ネットワークを調査し、分析する。
これらのモデルはそれぞれ、最先端の結果を示し、画像から画像へのGANを構築するための新しいテクニックを導入した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GANs) have recently introduced effective
methods of performing Image-to-Image translations. These models can be applied
and generalized to a variety of domains in Image-to-Image translation without
changing any parameters. In this paper, we survey and analyze eight
Image-to-Image Generative Adversarial Networks: Pix2Px, CycleGAN, CoGAN,
StarGAN, MUNIT, StarGAN2, DA-GAN, and Self Attention GAN. Each of these models
presented state-of-the-art results and introduced new techniques to build
Image-to-Image GANs. In addition to a survey of the models, we also survey the
18 datasets they were trained on and the 9 metrics they were evaluated on.
Finally, we present results of a controlled experiment for 6 of these models on
a common set of metrics and datasets. The results were mixed and showed that on
certain datasets, tasks, and metrics some models outperformed others. The last
section of this paper discusses those results and establishes areas of future
research. As researchers continue to innovate new Image-to-Image GANs, it is
important that they gain a good understanding of the existing methods,
datasets, and metrics. This paper provides a comprehensive overview and
discussion to help build this foundation.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は近年,画像から画像への翻訳を行う効果的な手法を導入している。
これらのモデルは、パラメータを変更することなく、画像から画像への変換において様々な領域に適用および一般化することができる。
本稿では、Pix2Px、CycleGAN、CoGAN、StarGAN、MUNIT、StarGAN2、DA-GAN、Self Attention GANの8つの画像対画像生成対応ネットワークを調査し、分析する。
これらのモデルはそれぞれ最先端の結果を示し、画像間GANを構築するための新しい技術を導入した。
モデルのサーベイに加えて、トレーニングした18のデータセットと、評価した9のメトリクスについても調査しました。
最後に、これらのモデルのうち6つを共通のメトリクスとデータセットで制御した実験結果を示す。
結果は混ざり合っていて、特定のデータセット、タスク、メトリクスによっては、他のモデルよりも優れています。
本稿の最後の節では,これらの結果について論じ,今後の研究分野を確立する。
研究者は新しい画像から画像へのganを革新し続けており、既存のメソッド、データセット、メトリクスをよく理解することが重要である。
本稿は、この基盤構築を支援するための総合的な概要と議論を提供する。
関連論文リスト
- Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Investigating GANsformer: A Replication Study of a State-of-the-Art
Image Generation Model [0.0]
我々は、オリジナルのGANネットワークであるGANformerの新たなバリエーションを再現し、評価する。
リソースと時間制限のため、ネットワークのトレーニング時間、データセットタイプ、サイズを制限しなければなりませんでした。
論文 参考訳(メタデータ) (2023-03-15T12:51:16Z) - Lafite2: Few-shot Text-to-Image Generation [132.14211027057766]
本稿では,画像のみのデータセットを用いたテキスト・画像生成モデルの事前学習手法を提案する。
擬似テキスト特徴を合成する検索テーマ最適化手法を検討する。
これは、数ショット、半教師あり、完全に教師された学習など、幅広い設定で有益である。
論文 参考訳(メタデータ) (2022-10-25T16:22:23Z) - Generative Adversarial Networks for Image Super-Resolution: A Survey [101.39605080291783]
単一画像超解像(SISR)は画像処理の分野で重要な役割を果たしている。
近年のGAN(Generative Adversarial Network)は,小サンプルを用いた低解像度画像に対して優れた結果が得られる。
本稿では,異なる視点からGANの比較研究を行う。
論文 参考訳(メタデータ) (2022-04-28T16:35:04Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - MOGAN: Morphologic-structure-aware Generative Learning from a Single
Image [59.59698650663925]
近年,1つの画像のみに基づく生成モデルによる完全学習が提案されている。
多様な外観のランダムなサンプルを生成するMOGANというMOrphologic-structure-aware Generative Adversarial Networkを紹介します。
合理的な構造の維持や外観の変化など、内部機能に重点を置いています。
論文 参考訳(メタデータ) (2021-03-04T12:45:23Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Image Synthesis with Adversarial Networks: a Comprehensive Survey and
Case Studies [41.00383742615389]
GAN(Generative Adversarial Networks)は、コンピュータビジョン、医学、自然言語処理など、さまざまなアプリケーション分野で非常に成功しています。
GANは、意味的に意味のあるサンプルを合成する複雑な分布を学習するための強力なモデルである。
本調査では,現時点の高速なGANの開発状況を踏まえ,画像合成の敵モデルに関する総合的なレビューを行う。
論文 参考訳(メタデータ) (2020-12-26T13:30:42Z) - GIQA: Generated Image Quality Assessment [36.01759301994946]
現在、GAN(Generative Adversarial Network)は印象的な成果を上げているが、すべての生成した画像が完璧ではない。
本稿では,生成画像の品質を定量的に評価する生成画像品質評価(GIQA)を提案する。
論文 参考訳(メタデータ) (2020-03-19T17:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。