論文の概要: Investigating GANsformer: A Replication Study of a State-of-the-Art
Image Generation Model
- arxiv url: http://arxiv.org/abs/2303.08577v1
- Date: Wed, 15 Mar 2023 12:51:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 13:50:16.685220
- Title: Investigating GANsformer: A Replication Study of a State-of-the-Art
Image Generation Model
- Title(参考訳): GANsformerの調査:現状画像生成モデルの再現性の検討
- Authors: Giorgia Adorni, Felix Boelter, Stefano Carlo Lambertenghi
- Abstract要約: 我々は、オリジナルのGANネットワークであるGANformerの新たなバリエーションを再現し、評価する。
リソースと時間制限のため、ネットワークのトレーニング時間、データセットタイプ、サイズを制限しなければなりませんでした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of image generation through generative modelling is abundantly
discussed nowadays. It can be used for various applications, such as up-scaling
existing images, creating non-existing objects, such as interior design scenes,
products or even human faces, and achieving transfer-learning processes. In
this context, Generative Adversarial Networks (GANs) are a class of widely
studied machine learning frameworks first appearing in the paper "Generative
adversarial nets" by Goodfellow et al. that achieve the goal above. In our
work, we reproduce and evaluate a novel variation of the original GAN network,
the GANformer, proposed in "Generative Adversarial Transformers" by Hudson and
Zitnick. This project aimed to recreate the methods presented in this paper to
reproduce the original results and comment on the authors' claims. Due to
resources and time limitations, we had to constrain the network's training
times, dataset types, and sizes. Our research successfully recreated both
variations of the proposed GANformer model and found differences between the
authors' and our results. Moreover, discrepancies between the publication
methodology and the one implemented, made available in the code, allowed us to
study two undisclosed variations of the presented procedures.
- Abstract(参考訳): 生成モデリングによる画像生成の分野は,近年広く議論されている。
既存のイメージのスケールアップ、インテリアデザインシーンや製品、あるいは人間の顔といった既存のオブジェクトの作成、転送学習プロセスの実現など、さまざまなアプリケーションで使用できる。
この文脈では、generative adversarial networks (gans) は、上の目標を達成するgoodfellowらによる論文"generative adversarial nets"で最初に登場した、広く研究された機械学習フレームワークのクラスである。
本稿では,Hudson と Zitnick の "Generative Adversarial Transformers" で提案した GAN ネットワークの新しいバリエーション GANformer を再現し,評価する。
本研究の目的は,本論文で提示した手法を再現し,原著の成果を再現し,著者の主張にコメントすることであった。
リソースと時間制限のため、ネットワークのトレーニング時間、データセットタイプ、サイズを制限しなければなりませんでした。
本研究は,提案したGANformerモデルの両方のバリエーションを再現し,著者と結果の相違を見出した。
さらに、コードで利用可能な公開手法と実装方法の相違により、提示された手順の2つの未公表のバリエーションを研究できるようになった。
関連論文リスト
- Face editing with GAN -- A Review [0.0]
GAN(Generative Adversarial Networks)は、ディープラーニングを扱う研究者やエンジニアの間でホットな話題となっている。
GANには、ジェネレータと識別器という、2つの競合するニューラルネットワークがある。
他の生成モデルと異なるのは、ラベルのないサンプルを学習する能力である。
論文 参考訳(メタデータ) (2022-07-12T06:51:53Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Improving Generation and Evaluation of Visual Stories via Semantic
Consistency [72.00815192668193]
一連の自然言語キャプションが与えられた場合、エージェントはキャプションに対応する一連の画像を生成する必要がある。
それまでの作業では、このタスクで合成テキスト・画像モデルより優れた繰り返し生成モデルを導入してきた。
従来のモデリング手法には、デュアルラーニングフレームワークの追加など、いくつかの改善点を提示する。
論文 参考訳(メタデータ) (2021-05-20T20:42:42Z) - MOGAN: Morphologic-structure-aware Generative Learning from a Single
Image [59.59698650663925]
近年,1つの画像のみに基づく生成モデルによる完全学習が提案されている。
多様な外観のランダムなサンプルを生成するMOGANというMOrphologic-structure-aware Generative Adversarial Networkを紹介します。
合理的な構造の維持や外観の変化など、内部機能に重点を置いています。
論文 参考訳(メタデータ) (2021-03-04T12:45:23Z) - Image Synthesis with Adversarial Networks: a Comprehensive Survey and
Case Studies [41.00383742615389]
GAN(Generative Adversarial Networks)は、コンピュータビジョン、医学、自然言語処理など、さまざまなアプリケーション分野で非常に成功しています。
GANは、意味的に意味のあるサンプルを合成する複雑な分布を学習するための強力なモデルである。
本調査では,現時点の高速なGANの開発状況を踏まえ,画像合成の敵モデルに関する総合的なレビューを行う。
論文 参考訳(メタデータ) (2020-12-26T13:30:42Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z) - XingGAN for Person Image Generation [149.54517767056382]
本稿では,人物画像生成タスクのための新しいジェネレーティブ・アドバイザリアル・ネットワーク(XingGAN)を提案する。
XingGANは、人物の外観と形状をモデル化する2世代ブランチで構成されている。
提案したXingGANは,客観的な定量的スコアと主観的視覚的現実性の観点から,最先端のパフォーマンスを向上することを示す。
論文 参考訳(メタデータ) (2020-07-17T23:40:22Z) - Network-to-Network Translation with Conditional Invertible Neural
Networks [19.398202091883366]
最近の研究は、巨大な機械学習モデルのパワーが、彼らが学んだ表現によって捉えられていることを示唆している。
本研究では,異なる既存表現を関連付けることが可能なモデルを模索し,条件付き可逆ネットワークを用いてこの問題を解決することを提案する。
ドメイン転送ネットワークは、それらを学習したり微調整したりすることなく、固定表現を変換できます。
論文 参考訳(メタデータ) (2020-05-27T18:14:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。