論文の概要: SmartEraser: Remove Anything from Images using Masked-Region Guidance
- arxiv url: http://arxiv.org/abs/2501.08279v1
- Date: Tue, 14 Jan 2025 17:55:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:29:09.007898
- Title: SmartEraser: Remove Anything from Images using Masked-Region Guidance
- Title(参考訳): SmartEraser:マズード・レジオン・ガイダンスを使って画像から何かを取り除く
- Authors: Longtao Jiang, Zhendong Wang, Jianmin Bao, Wengang Zhou, Dongdong Chen, Lei Shi, Dong Chen, Houqiang Li,
- Abstract要約: SmartEraserはMasked-Region Guidanceと呼ばれる新しい削除パラダイムで構築されている。
Masked-Region Guidanceは、削除プロセスのガイダンスとして、入力中のマスクされた領域を保持します。
大規模オブジェクト除去データセットであるSyn4Removalを提案する。
- 参考スコア(独自算出の注目度): 114.36809682798784
- License:
- Abstract: Object removal has so far been dominated by the mask-and-inpaint paradigm, where the masked region is excluded from the input, leaving models relying on unmasked areas to inpaint the missing region. However, this approach lacks contextual information for the masked area, often resulting in unstable performance. In this work, we introduce SmartEraser, built with a new removing paradigm called Masked-Region Guidance. This paradigm retains the masked region in the input, using it as guidance for the removal process. It offers several distinct advantages: (a) it guides the model to accurately identify the object to be removed, preventing its regeneration in the output; (b) since the user mask often extends beyond the object itself, it aids in preserving the surrounding context in the final result. Leveraging this new paradigm, we present Syn4Removal, a large-scale object removal dataset, where instance segmentation data is used to copy and paste objects onto images as removal targets, with the original images serving as ground truths. Experimental results demonstrate that SmartEraser significantly outperforms existing methods, achieving superior performance in object removal, especially in complex scenes with intricate compositions.
- Abstract(参考訳): これまでのところ、オブジェクトの除去はマスク・アンド・インペイントのパラダイムによって支配されており、マスクされた領域は入力から除外されている。
しかし、この手法はマスキング領域の文脈情報を欠くため、しばしば不安定な性能をもたらす。
本稿では,Masked-Region Guidanceと呼ばれる新しい除去パラダイムで構築したSmartEraserを紹介する。
このパラダイムは入力のマスキング領域を保持し、除去プロセスのガイダンスとして使用します。
いくつか異なる利点がある。
a) 除去対象の正確な識別をモデルに誘導し,出力の再生を防止すること。
b) ユーザマスクはオブジェクト自体を超えて拡張されることが多いため、最終的な結果において周囲のコンテキストを保存するのに役立ちます。
この新たなパラダイムを活用して、大規模なオブジェクト削除データセットであるSyn4Removalを紹介します。
実験により,SmartEraserは既存の手法よりも優れており,特に複雑な構成の複雑なシーンにおいて,オブジェクト除去において優れた性能を発揮することが示された。
関連論文リスト
- DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z) - Paint by Inpaint: Learning to Add Image Objects by Removing Them First [8.399234415641319]
我々は、画像にオブジェクトを効果的に付加して、塗布過程を逆転させる拡散モデルを訓練する。
削除対象の詳細な記述と,これらの記述を多種多様な自然言語命令に変換するための大規模言語モデルを提供する。
論文 参考訳(メタデータ) (2024-04-28T15:07:53Z) - Inpainting-Driven Mask Optimization for Object Removal [15.429649454099085]
本稿では,画像塗布による物体除去の品質向上のためのマスク最適化手法を提案する。
本手法では, この領域ギャップを, セグメンテーションにより抽出した物体マスクを用いて塗装ネットワークを訓練することにより解決する。
被塗布用マスクを最適化するために、セグメンテーションネットワークは塗工ネットワークに接続され、塗工性能を向上させるために訓練されたエンド・ツー・エンドに接続される。
論文 参考訳(メタデータ) (2024-03-23T13:52:16Z) - Variance-insensitive and Target-preserving Mask Refinement for
Interactive Image Segmentation [68.16510297109872]
ポイントベースのインタラクティブなイメージセグメンテーションは、セマンティックセグメンテーションや画像編集といったアプリケーションにおけるマスクアノテーションの負担を軽減することができる。
本稿では,ユーザ入力の少ないセグメンテーション品質を向上する新しい手法である可変無感・ターゲット保存マスクリファインメントを提案する。
GrabCut、バークレー、SBD、DAVISデータセットの実験は、インタラクティブな画像セグメンテーションにおける我々の手法の最先端性能を実証している。
論文 参考訳(メタデータ) (2023-12-22T02:31:31Z) - Completing Visual Objects via Bridging Generation and Segmentation [84.4552458720467]
MaskCompは、生成とセグメンテーションの反復的な段階を通して完了プロセスを記述する。
各イテレーションにおいて、オブジェクトマスクは、画像生成を促進する追加条件として提供される。
我々は,1世代と1つのセグメンテーション段階の組み合わせがマスマスデノイザーとして効果的に機能することを実証した。
論文 参考訳(メタデータ) (2023-10-01T22:25:40Z) - SEMPART: Self-supervised Multi-resolution Partitioning of Image
Semantics [0.5439020425818999]
SEMPARTは、追加の後処理なしで高品質なマスクを迅速に製造する。
以上の結果から,SEMPARTはポストプロセッシングを伴わずに高品質なマスクを高速に生成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-20T00:07:30Z) - AURA : Automatic Mask Generator using Randomized Input Sampling for Object Removal [26.81218265405809]
本稿では,オフザシェルフ・イメージ・インパインティング・ネットワークを用いて,オブジェクトをよりよく除去するための入力マスクの生成に焦点をあてる。
本稿では,AI (XAI) 法にヒントを得た自動マスク生成手法を提案する。
実験により,本手法はセマンティックセグメンテーションマップから生成されたマスクよりも,ターゲットクラスオブジェクトの除去性能が向上していることが確認された。
論文 参考訳(メタデータ) (2023-05-13T07:51:35Z) - Towards Improved Input Masking for Convolutional Neural Networks [66.99060157800403]
層マスキングと呼ぶCNNのための新しいマスキング手法を提案する。
本手法は,マスク形状や色がモデル出力に与える影響を排除あるいは最小化することができることを示す。
また,マスクの形状がクラスに関する情報を漏洩させる可能性を示し,クラス関連特徴に対するモデル依存度の推定に影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2022-11-26T19:31:49Z) - Layered Depth Refinement with Mask Guidance [61.10654666344419]
汎用マスクを用いてSIDEモデルの深度予測を洗練させるマスク誘導深度改善の新しい問題を定式化する。
本フレームワークは,奥行きマップをマスクと逆マスクで表される2つの別々の層に分解し,層状改質・塗装・塗装を行う。
本手法は,内面境界領域と外面境界領域の深度を正確に補正し,異なる種類のマスクや初期深度予測に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-06-07T06:42:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。