論文の概要: Investigating GANsformer: A Replication Study of a State-of-the-Art
Image Generation Model
- arxiv url: http://arxiv.org/abs/2303.08577v1
- Date: Wed, 15 Mar 2023 12:51:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 13:50:16.685220
- Title: Investigating GANsformer: A Replication Study of a State-of-the-Art
Image Generation Model
- Title(参考訳): GANsformerの調査:現状画像生成モデルの再現性の検討
- Authors: Giorgia Adorni, Felix Boelter, Stefano Carlo Lambertenghi
- Abstract要約: 我々は、オリジナルのGANネットワークであるGANformerの新たなバリエーションを再現し、評価する。
リソースと時間制限のため、ネットワークのトレーニング時間、データセットタイプ、サイズを制限しなければなりませんでした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of image generation through generative modelling is abundantly
discussed nowadays. It can be used for various applications, such as up-scaling
existing images, creating non-existing objects, such as interior design scenes,
products or even human faces, and achieving transfer-learning processes. In
this context, Generative Adversarial Networks (GANs) are a class of widely
studied machine learning frameworks first appearing in the paper "Generative
adversarial nets" by Goodfellow et al. that achieve the goal above. In our
work, we reproduce and evaluate a novel variation of the original GAN network,
the GANformer, proposed in "Generative Adversarial Transformers" by Hudson and
Zitnick. This project aimed to recreate the methods presented in this paper to
reproduce the original results and comment on the authors' claims. Due to
resources and time limitations, we had to constrain the network's training
times, dataset types, and sizes. Our research successfully recreated both
variations of the proposed GANformer model and found differences between the
authors' and our results. Moreover, discrepancies between the publication
methodology and the one implemented, made available in the code, allowed us to
study two undisclosed variations of the presented procedures.
- Abstract(参考訳): 生成モデリングによる画像生成の分野は,近年広く議論されている。
既存のイメージのスケールアップ、インテリアデザインシーンや製品、あるいは人間の顔といった既存のオブジェクトの作成、転送学習プロセスの実現など、さまざまなアプリケーションで使用できる。
この文脈では、generative adversarial networks (gans) は、上の目標を達成するgoodfellowらによる論文"generative adversarial nets"で最初に登場した、広く研究された機械学習フレームワークのクラスである。
本稿では,Hudson と Zitnick の "Generative Adversarial Transformers" で提案した GAN ネットワークの新しいバリエーション GANformer を再現し,評価する。
本研究の目的は,本論文で提示した手法を再現し,原著の成果を再現し,著者の主張にコメントすることであった。
リソースと時間制限のため、ネットワークのトレーニング時間、データセットタイプ、サイズを制限しなければなりませんでした。
本研究は,提案したGANformerモデルの両方のバリエーションを再現し,著者と結果の相違を見出した。
さらに、コードで利用可能な公開手法と実装方法の相違により、提示された手順の2つの未公表のバリエーションを研究できるようになった。
関連論文リスト
- RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - Diffusion idea exploration for art generation [0.10152838128195467]
拡散モデルは最近、クロスモーダルデータを用いた画像生成タスクにおいて、他の生成モデルよりも優れています。
このタスクの新たな画像生成の初期実験は、有望な質的結果を示した。
論文 参考訳(メタデータ) (2023-07-11T02:35:26Z) - Textile Pattern Generation Using Diffusion Models [0.0]
本研究は,テクスト指導による織物パターン生成のための微調整拡散モデルを提案する。
提案した微調整拡散モデルは,テキストガイダンスによる織物パターン生成におけるパターン品質と効率の観点から,ベースラインモデルより優れる。
論文 参考訳(メタデータ) (2023-04-02T12:12:24Z) - IRGen: Generative Modeling for Image Retrieval [82.62022344988993]
本稿では,画像検索を生成モデルの一種として再フレーミングする新しい手法を提案する。
我々は、イメージを意味単位の簡潔なシーケンスに変換するという技術的課題に対処するため、IRGenと呼ばれるモデルを開発した。
本モデルは,広範に使用されている3つの画像検索ベンチマークと200万件のデータセットに対して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-03-17T17:07:36Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - MOGAN: Morphologic-structure-aware Generative Learning from a Single
Image [59.59698650663925]
近年,1つの画像のみに基づく生成モデルによる完全学習が提案されている。
多様な外観のランダムなサンプルを生成するMOGANというMOrphologic-structure-aware Generative Adversarial Networkを紹介します。
合理的な構造の維持や外観の変化など、内部機能に重点を置いています。
論文 参考訳(メタデータ) (2021-03-04T12:45:23Z) - Image Synthesis with Adversarial Networks: a Comprehensive Survey and
Case Studies [41.00383742615389]
GAN(Generative Adversarial Networks)は、コンピュータビジョン、医学、自然言語処理など、さまざまなアプリケーション分野で非常に成功しています。
GANは、意味的に意味のあるサンプルを合成する複雑な分布を学習するための強力なモデルである。
本調査では,現時点の高速なGANの開発状況を踏まえ,画像合成の敵モデルに関する総合的なレビューを行う。
論文 参考訳(メタデータ) (2020-12-26T13:30:42Z) - XingGAN for Person Image Generation [149.54517767056382]
本稿では,人物画像生成タスクのための新しいジェネレーティブ・アドバイザリアル・ネットワーク(XingGAN)を提案する。
XingGANは、人物の外観と形状をモデル化する2世代ブランチで構成されている。
提案したXingGANは,客観的な定量的スコアと主観的視覚的現実性の観点から,最先端のパフォーマンスを向上することを示す。
論文 参考訳(メタデータ) (2020-07-17T23:40:22Z) - Network-to-Network Translation with Conditional Invertible Neural
Networks [19.398202091883366]
最近の研究は、巨大な機械学習モデルのパワーが、彼らが学んだ表現によって捉えられていることを示唆している。
本研究では,異なる既存表現を関連付けることが可能なモデルを模索し,条件付き可逆ネットワークを用いてこの問題を解決することを提案する。
ドメイン転送ネットワークは、それらを学習したり微調整したりすることなく、固定表現を変換できます。
論文 参考訳(メタデータ) (2020-05-27T18:14:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。