論文の概要: Multi-Class Multi-Instance Count Conditioned Adversarial Image
Generation
- arxiv url: http://arxiv.org/abs/2103.16795v1
- Date: Wed, 31 Mar 2021 04:06:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:45:08.591952
- Title: Multi-Class Multi-Instance Count Conditioned Adversarial Image
Generation
- Title(参考訳): マルチクラスマルチインスタンスカウント条件付き逆画像生成
- Authors: Amrutha Saseendran, Kathrin Skubch and Margret Keuper
- Abstract要約: 与えられたクラスから定義された数のオブジェクトを持つ画像を生成する条件付きジェネレーティブ・アドバーサリ・ネットワーク(GAN)を提案する。
これは(1)複雑な制約により高品質な画像を生成することができ、(2)与えられた画像内のクラスごとにオブジェクトインスタンスを数えることができるという2つの基本的な能力を伴う。
3つの異なるデータセットの実験において、複雑な背景が存在する場合でも、提案モデルが与えられた多重クラスカウント条件に従って画像を生成することを学習することを示す。
- 参考スコア(独自算出の注目度): 9.560980936110234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image generation has rapidly evolved in recent years. Modern architectures
for adversarial training allow to generate even high resolution images with
remarkable quality. At the same time, more and more effort is dedicated towards
controlling the content of generated images. In this paper, we take one further
step in this direction and propose a conditional generative adversarial network
(GAN) that generates images with a defined number of objects from given
classes. This entails two fundamental abilities (1) being able to generate
high-quality images given a complex constraint and (2) being able to count
object instances per class in a given image. Our proposed model modularly
extends the successful StyleGAN2 architecture with a count-based conditioning
as well as with a regression sub-network to count the number of generated
objects per class during training. In experiments on three different datasets,
we show that the proposed model learns to generate images according to the
given multiple-class count condition even in the presence of complex
backgrounds. In particular, we propose a new dataset, CityCount, which is
derived from the Cityscapes street scenes dataset, to evaluate our approach in
a challenging and practically relevant scenario.
- Abstract(参考訳): 画像生成は近年急速に進化している。
現代の対人訓練のためのアーキテクチャでは、優れた画質で高解像度の画像を生成することができる。
同時に、生成された画像のコンテンツを制御するための努力がますます増えています。
本稿では,この方向への一歩を踏み出し,与えられたクラスから定義された多数のオブジェクトを持つ画像を生成する条件付き生成対向ネットワーク(GAN)を提案する。
これは(1)複雑な制約により高品質な画像を生成することができ、(2)与えられた画像内のクラスごとにオブジェクトインスタンスを数えることができるという2つの基本的な能力を伴う。
提案モデルでは,StyleGAN2アーキテクチャの成功を,数ベースの条件付けと回帰サブネットワークでモジュール的に拡張し,トレーニング中にクラス毎に生成されたオブジェクト数をカウントする。
3つの異なるデータセットの実験において、複雑な背景が存在する場合でも、与えられた多重クラス数条件に従って画像を生成することを学ぶ。
特に,cityscapes street scenesデータセットから派生した新しいデータセットであるcitycountを提案する。
関連論文リスト
- Iterative Object Count Optimization for Text-to-image Diffusion Models [59.03672816121209]
画像とテキストのペアから学ぶ現在のモデルは、本質的にカウントに苦慮している。
本稿では,物体のポテンシャルを集計する計数モデルから得られた計数損失に基づいて生成画像の最適化を提案する。
様々なオブジェクトの生成を評価し,精度を大幅に向上させた。
論文 参考訳(メタデータ) (2024-08-21T15:51:46Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Object-Centric Relational Representations for Image Generation [18.069747511100132]
本稿では,オブジェクト中心のリレーショナル表現に基づく条件画像生成手法を提案する。
このようなアーキテクチャバイアスには,生成過程の操作と条件付けを容易にする特性が伴うことを示す。
また,関係表現と組み合わせた画像の合成データセットからなる画像生成のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2023-03-26T11:17:17Z) - Re-Imagen: Retrieval-Augmented Text-to-Image Generator [58.60472701831404]
検索用テキスト・ツー・イメージ・ジェネレータ(再画像)
検索用テキスト・ツー・イメージ・ジェネレータ(再画像)
論文 参考訳(メタデータ) (2022-09-29T00:57:28Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Collaging Class-specific GANs for Semantic Image Synthesis [68.87294033259417]
本稿では,高分解能なセマンティック画像合成のための新しい手法を提案する。
1つのベースイメージジェネレータと複数のクラス固有のジェネレータで構成される。
実験により,本手法は高解像度で高品質な画像を生成することができることが示された。
論文 参考訳(メタデータ) (2021-10-08T17:46:56Z) - Generating Annotated High-Fidelity Images Containing Multiple Coherent
Objects [10.783993190686132]
コンテキスト情報を明示的に必要とせずに、複数のオブジェクトで画像を合成できるマルチオブジェクト生成フレームワークを提案する。
我々は,Multi-MNISTおよびCLEVRデータセットを用いた実験により,コヒーレンシーと忠実さの保存方法を示す。
論文 参考訳(メタデータ) (2020-06-22T11:33:55Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z) - Concurrently Extrapolating and Interpolating Networks for Continuous
Model Generation [34.72650269503811]
本稿では,一組の特定効果ラベル画像のみを必要とするモデル列を形成するための,シンプルで効果的なモデル生成戦略を提案する。
提案手法は一連の連続モデルの生成が可能であり,画像平滑化のための最先端手法よりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-01-12T04:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。