論文の概要: ObjectAdd: Adding Objects into Image via a Training-Free Diffusion Modification Fashion
- arxiv url: http://arxiv.org/abs/2404.17230v2
- Date: Thu, 2 May 2024 14:57:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-03 13:26:53.630594
- Title: ObjectAdd: Adding Objects into Image via a Training-Free Diffusion Modification Fashion
- Title(参考訳): ObjectAdd: トレーニング不要な拡散修正ファシオンによるイメージへのオブジェクトの追加
- Authors: Ziyue Zhang, Mingbao Lin, Rongrong Ji,
- Abstract要約: 我々は,ユーザ指定領域にユーザ予測オブジェクトを追加するトレーニング不要な拡散修正手法であるObjectAddを紹介する。
テキストをプロンプトした画像では、ユーザがボックスとオブジェクトを指定することができ、(1) ボックス領域内にオブジェクトを追加すること、(2) ボックス領域の外で正確なコンテンツを追加すること、(3) ボックス領域間の不完全な融合を実現する。
- 参考スコア(独自算出の注目度): 68.3013463352728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce ObjectAdd, a training-free diffusion modification method to add user-expected objects into user-specified area. The motive of ObjectAdd stems from: first, describing everything in one prompt can be difficult, and second, users often need to add objects into the generated image. To accommodate with real world, our ObjectAdd maintains accurate image consistency after adding objects with technical innovations in: (1) embedding-level concatenation to ensure correct text embedding coalesce; (2) object-driven layout control with latent and attention injection to ensure objects accessing user-specified area; (3) prompted image inpainting in an attention refocusing & object expansion fashion to ensure rest of the image stays the same. With a text-prompted image, our ObjectAdd allows users to specify a box and an object, and achieves: (1) adding object inside the box area; (2) exact content outside the box area; (3) flawless fusion between the two areas
- Abstract(参考訳): 我々は,ユーザ指定領域にユーザ予測オブジェクトを追加するトレーニング不要な拡散修正手法であるObjectAddを紹介する。
ObjectAddの動機は次のようなものだ。 1つは、すべてのことを1つのプロンプトで記述することが難しいこと、2つ目は、ユーザが生成したイメージにオブジェクトを追加する必要があること。
実世界に対応するため,ObjectAddは,(1) 適切なテキスト埋め込み合体を保証するための埋め込みレベル結合,(2) 潜時および注意注入によるオブジェクト駆動レイアウト制御によるユーザ指定領域へのアクセスを保証するためのオブジェクト駆動レイアウト制御,(3) 注意再焦点化・オブジェクト拡張方式による画像インペインティングにより,画像の残りが同一であることを保証する。
テキストプロンプトされた画像により、ObjectAddはユーザーがボックスとオブジェクトを指定することができ、(1) ボックス領域内にオブジェクトを追加し、(2) ボックス領域の外に正確なコンテンツを追加し、(3) ボックス領域間の不完全な融合を実現する。
関連論文リスト
- DreamMix: Decoupling Object Attributes for Enhanced Editability in Customized Image Inpainting [63.01425442236011]
本研究では,DreamMixを提案する。DreamMixは,ユーザが指定した場所のシーンに対象オブジェクトを挿入できる拡散型生成モデルである。
テキストベースの属性ガイダンスの多様性と識別能力を向上させるために,属性分離機構 (ADM) とテキスト属性置換 (TAS) モジュールを提案する。
論文 参考訳(メタデータ) (2024-11-26T08:44:47Z) - Add-it: Training-Free Object Insertion in Images With Pretrained Diffusion Models [78.90023746996302]
Add-itは、拡散モデルの注意メカニズムを拡張して、3つの主要なソースからの情報を組み込む、トレーニング不要のアプローチである。
我々の重み付き拡張アテンション機構は、自然物の位置を確実にしながら、構造的一貫性と細部を維持できる。
人間の評価によると、Add-itは80%以上のケースで好まれる。
論文 参考訳(メタデータ) (2024-11-11T18:50:09Z) - Improving Text-guided Object Inpainting with Semantic Pre-inpainting [95.17396565347936]
我々は,典型的な単一ステージオブジェクトを2つのカスケードプロセス – セマンティックプリペイントと高磁場オブジェクト生成 – に分解する。
これを実現するために,トランスフォーマーをベースとしたセマンティックインパインとオブジェクトインパインティング拡散モデルをカスケードし,新しいCAscaded Transformer-Diffusionフレームワークを実現する。
論文 参考訳(メタデータ) (2024-09-12T17:55:37Z) - Diffree: Text-Guided Shape Free Object Inpainting with Diffusion Model [81.96954332787655]
テキスト制御のみによるテキスト誘導オブジェクトの追加を容易にするテキスト・ツー・イメージ(T2I)モデルであるDiffreeを紹介する。
実験では、Diffreeはバックグラウンドの一貫性、空間、オブジェクトの関連性、品質を維持しながら、高い成功率を持つ新しいオブジェクトを追加します。
論文 参考訳(メタデータ) (2024-07-24T03:58:58Z) - Customizing Text-to-Image Diffusion with Camera Viewpoint Control [53.621518249820745]
モデルカスタマイズのためのカメラ視点の明示的な制御を可能にする新しいタスクを導入する。
これにより、テキストプロンプトによって、さまざまな背景シーンのオブジェクトプロパティを変更することができます。
本稿では,新しいオブジェクトのレンダリング・ビュー依存的な特徴に対して,2次元拡散過程を条件付けることを提案する。
論文 参考訳(メタデータ) (2024-04-18T16:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。