論文の概要: FaithFill: Faithful Inpainting for Object Completion Using a Single Reference Image
- arxiv url: http://arxiv.org/abs/2406.07865v1
- Date: Wed, 12 Jun 2024 04:45:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 18:25:01.788960
- Title: FaithFill: Faithful Inpainting for Object Completion Using a Single Reference Image
- Title(参考訳): FaithFill: 単一の参照画像を用いたオブジェクト補完のための忠実なペイント
- Authors: Rupayan Mallick, Amr Abdalla, Sarah Adel Bargal,
- Abstract要約: FaithFillは、行方不明なオブジェクト部品を現実的に生成するための拡散ベースの塗装手法である。
本研究では,FithFillが1つの参照画像から,オブジェクトの欠落部分の忠実な生成と,背景・シーンの保存を両立させることを実証する。
- 参考スコア(独自算出の注目度): 6.742568054626032
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present FaithFill, a diffusion-based inpainting object completion approach for realistic generation of missing object parts. Typically, multiple reference images are needed to achieve such realistic generation, otherwise the generation would not faithfully preserve shape, texture, color, and background. In this work, we propose a pipeline that utilizes only a single input reference image -having varying lighting, background, object pose, and/or viewpoint. The singular reference image is used to generate multiple views of the object to be inpainted. We demonstrate that FaithFill produces faithful generation of the object's missing parts, together with background/scene preservation, from a single reference image. This is demonstrated through standard similarity metrics, human judgement, and GPT evaluation. Our results are presented on the DreamBooth dataset, and a novel proposed dataset.
- Abstract(参考訳): 本稿では,FithFillについて紹介する。FithFillは拡散型インペイントオブジェクト補完手法で,行方不明なオブジェクト部品を現実的に生成する。
通常、そのような現実的な生成を実現するには複数の参照画像が必要であるが、そうでなければ、生成は形、テクスチャ、色、背景を忠実に保存しない。
本研究では,1つの入力参照画像のみを利用するパイプラインを提案する。
特異参照画像は、塗装対象物の複数のビューを生成するために使用される。
本研究では,FithFillが1つの参照画像から,オブジェクトの欠落部分の忠実な生成と,背景・シーンの保存を両立させることを実証する。
これは、標準的な類似度指標、人間の判断、GPT評価によって示される。
この結果はDreamBoothデータセットと,新たに提案したデータセットで紹介される。
関連論文リスト
- RealFill: Reference-Driven Generation for Authentic Image Completion [84.98377627001443]
RealFillは、シーンの参照画像のみを使用してパーソナライズされた生成的インペイントモデルである。
RealFillは、オリジナルシーンに忠実な視覚的に魅力的なコンテンツでターゲットイメージを完成させることができます。
論文 参考訳(メタデータ) (2023-09-28T17:59:29Z) - DreamCom: Finetuning Text-guided Inpainting Model for Image Composition [24.411003826961686]
本研究では、画像合成を、特定の対象に対してカスタマイズされた画像インペイントとして扱うことで、DreamComを提案する。
具体的には、同じオブジェクトを含むいくつかの参照画像に基づいて、事前学習したテキスト誘導画像の塗装モデルを精査する。
実際には、挿入された物体は背景の影響を受けやすいため、陰性な背景干渉を避けるためにマスキングされた注意機構を提案する。
論文 参考訳(メタデータ) (2023-09-27T09:23:50Z) - AnyDoor: Zero-shot Object-level Image Customization [63.44307304097742]
ユーザが指定した場所の新しいシーンにターゲットオブジェクトをテレポートする機能を備えた拡散ベースのイメージジェネレータであるAnyDoorを紹介する。
我々のモデルは1回のみ訓練され、推論段階では多様なオブジェクトとシーンの組み合わせに懸命に一般化される。
論文 参考訳(メタデータ) (2023-07-18T17:59:02Z) - SIEDOB: Semantic Image Editing by Disentangling Object and Background [5.149242555705579]
本稿では,セマンティック画像編集のための新しいパラダイムを提案する。
textbfSIEDOB(サイト・英語)は、オブジェクトと背景に対していくつかの異種ワークを明示的に活用する。
我々はCityscapesとADE20K-Roomデータセットに関する広範な実験を行い、本手法がベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2023-03-23T06:17:23Z) - Affordance Diffusion: Synthesizing Hand-Object Interactions [81.98499943996394]
対象物のRGB画像が与えられた場合、我々はそれと相互作用する人間の手の可視像を幻覚することを目的としている。
そこで本研究では,触覚に依存しない手オブジェクトのインタラクションレイアウトをサンプリングするLayoutNetと,物体をつかむ手のイメージを合成するContentNetの2段階生成手法を提案する。
論文 参考訳(メタデータ) (2023-03-21T17:59:10Z) - RealFusion: 360{\deg} Reconstruction of Any Object from a Single Image [98.46318529630109]
対象物の全360度写真モデルを1枚の画像から再構成する際の問題点を考察する。
拡散に基づく自己条件付き画像生成装置を設計し、オブジェクトの新たなビューを"ドレームアップ"するよう促すプロンプトを設計する。
論文 参考訳(メタデータ) (2023-02-21T13:25:35Z) - Foreground-Background Separation through Concept Distillation from
Generative Image Foundation Models [6.408114351192012]
本稿では, 簡単なテキスト記述から, 一般的な前景-背景セグメンテーションモデルの生成を可能にする新しい手法を提案する。
本研究では,4つの異なる物体(人間,犬,車,鳥)を分割する作業と,医療画像解析におけるユースケースシナリオについて述べる。
論文 参考訳(メタデータ) (2022-12-29T13:51:54Z) - Shape-guided Object Inpainting [84.18768707298105]
本研究は,新しい画像インペイント,すなわち形状誘導物体インペイントについて研究する。
本研究では,新しいデータ作成手法と新しいコンテキストオブジェクト生成器(CogNet)を提案する。
実験により,提案手法は視覚的外観と意味的意味の両方の観点からコンテキストに適合する現実的なオブジェクトを生成することができることが示された。
論文 参考訳(メタデータ) (2022-04-16T17:19:11Z) - ShaRF: Shape-conditioned Radiance Fields from a Single View [54.39347002226309]
本稿では,単一の画像のみのオブジェクトの神経シーン表現を推定する手法を提案する。
この手法の核心は,対象物の幾何学的足場の推定である。
合成画像と実画像の両方において,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2021-02-17T16:40:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。