論文の概要: AttrLostGAN: Attribute Controlled Image Synthesis from Reconfigurable
Layout and Style
- arxiv url: http://arxiv.org/abs/2103.13722v1
- Date: Thu, 25 Mar 2021 10:09:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:38:38.475061
- Title: AttrLostGAN: Attribute Controlled Image Synthesis from Reconfigurable
Layout and Style
- Title(参考訳): AttrLostGAN:再構成可能なレイアウトとスタイルからの属性制御画像合成
- Authors: Stanislav Frolov, Avneesh Sharma, J\"orn Hees, Tushar Karayil,
Federico Raue, Andreas Dengel
- Abstract要約: レイアウトから属性制御画像合成を行う方法を提案する。
我々は、属性の個々のオブジェクトを条件づけるために、レイアウトから画像への生成に関する最先端のアプローチを拡張する。
提案手法は,複雑なシーンを複数のオブジェクトでモデリングする際に,個々のオブジェクトの細かな詳細をうまく制御できることを示す。
- 参考スコア(独自算出の注目度): 5.912209564607099
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional image synthesis from layout has recently attracted much interest.
Previous approaches condition the generator on object locations as well as
class labels but lack fine-grained control over the diverse appearance aspects
of individual objects. Gaining control over the image generation process is
fundamental to build practical applications with a user-friendly interface. In
this paper, we propose a method for attribute controlled image synthesis from
layout which allows to specify the appearance of individual objects without
affecting the rest of the image. We extend a state-of-the-art approach for
layout-to-image generation to additionally condition individual objects on
attributes. We create and experiment on a synthetic, as well as the challenging
Visual Genome dataset. Our qualitative and quantitative results show that our
method can successfully control the fine-grained details of individual objects
when modelling complex scenes with multiple objects.
- Abstract(参考訳): 近年,レイアウトからの条件付き画像合成が注目されている。
以前のアプローチでは、ジェネレータはオブジェクトの位置とクラスラベルを条件にしていたが、個々のオブジェクトの様々な外観の側面をきめ細かい制御ができない。
ユーザフレンドリーなインターフェースで実用的なアプリケーションを構築するためには、画像生成プロセスのゲイン制御が不可欠である。
本稿では,画像の他の部分に影響を与えることなく,個々のオブジェクトの出現を指定できるレイアウトからの属性制御画像合成手法を提案する。
レイアウト・ツー・イメージ生成のための最先端のアプローチを拡張し、属性に個々のオブジェクトを条件付けする。
私たちは、視覚ゲノムデータセットだけでなく、合成も実験しています。
質的・定量的な結果から,複雑なシーンを複数のオブジェクトでモデリングする場合,個々のオブジェクトの細粒度を制御できることがわかった。
関連論文リスト
- Generating Compositional Scenes via Text-to-image RGBA Instance Generation [82.63805151691024]
テキストから画像への拡散生成モデルは、退屈な急進的なエンジニアリングを犠牲にして高品質な画像を生成することができる。
本稿では, 粒度制御, 柔軟性, 相互作用性を考慮した新しい多段階生成パラダイムを提案する。
実験の結果,RGBA拡散モデルでは,オブジェクト属性を正確に制御した多種多様な高品質なインスタンスを生成できることがわかった。
論文 参考訳(メタデータ) (2024-11-16T23:44:14Z) - SINGAPO: Single Image Controlled Generation of Articulated Parts in Objects [20.978091381109294]
本稿では,単一画像から音声オブジェクトを生成する手法を提案する。
提案手法は,入力画像と視覚的に一致した音声オブジェクトを生成する。
実験の結果,本手法は音声によるオブジェクト生成における最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-10-21T20:41:32Z) - GroundingBooth: Grounding Text-to-Image Customization [17.185571339157075]
我々は、前景と背景オブジェクトの両方にゼロショットのインスタンスレベルの空間的グラウンドを実現するフレームワークであるGarthingBoothを紹介した。
提案したテキスト画像グラウンドモジュールとマスク付きクロスアテンション層は、正確なレイアウトアライメントとアイデンティティ保存の両方でパーソナライズされた画像を生成することができる。
論文 参考訳(メタデータ) (2024-09-13T03:40:58Z) - CustomNet: Zero-shot Object Customization with Variable-Viewpoints in
Text-to-Image Diffusion Models [85.69959024572363]
CustomNetは、オブジェクトのカスタマイズプロセスに3Dの新しいビュー合成機能を明示的に組み込んだ、新しいオブジェクトカスタマイズアプローチである。
テキスト記述や特定のユーザ定義画像による位置制御とフレキシブルな背景制御を実現するための繊細な設計を導入する。
本手法は,テスト時間最適化を伴わないゼロショットオブジェクトのカスタマイズを容易にし,視点,位置,背景を同時制御する。
論文 参考訳(メタデータ) (2023-10-30T17:50:14Z) - Taming Encoder for Zero Fine-tuning Image Customization with
Text-to-Image Diffusion Models [55.04969603431266]
本稿では,ユーザが指定したカスタマイズされたオブジェクトの画像を生成する手法を提案する。
この手法は、従来のアプローチで要求される長大な最適化をバイパスする一般的なフレームワークに基づいている。
提案手法は, 出力品質, 外観の多様性, 被写体忠実度を考慮した画像合成が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-05T17:59:32Z) - Context-Aware Layout to Image Generation with Enhanced Object Appearance [123.62597976732948]
レイアウト・トゥ・イメージ(l2i)生成モデルの目的は、自然背景(スタフ)に対して複数のオブジェクト(もの)を含む複雑な画像を生成することである。
既存のL2Iモデルは大きな進歩を遂げているが、オブジェクト間とオブジェクト間の関係はしばしば壊れている。
これらの原因は、ジェネレータにコンテキスト認識オブジェクトや機能エンコーディングがないことと、識別装置に位置依存の外観表現がないことにあります。
論文 参考訳(メタデータ) (2021-03-22T14:43:25Z) - Attribute-guided image generation from layout [38.817023543020134]
本稿では,インスタンスレベルの属性制御が可能な画像生成手法を提案する。
Visual Genomeデータセットの実験では、生成した画像のオブジェクトレベルの属性を制御できるモデルの能力が実証されている。
本モデルから生成した画像は,従来の最先端画像と比較して高分解能,オブジェクト分類精度,整合性を有する。
論文 参考訳(メタデータ) (2020-08-27T06:22:14Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。