論文の概要: ObjectClear: Complete Object Removal via Object-Effect Attention
- arxiv url: http://arxiv.org/abs/2505.22636v1
- Date: Wed, 28 May 2025 17:51:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.777262
- Title: ObjectClear: Complete Object Removal via Object-Effect Attention
- Title(参考訳): ObjectClear: Object-Effect Attentionによる完全なオブジェクト削除
- Authors: Jixin Zhao, Shangchen Zhou, Zhouxia Wang, Peiqing Yang, Chen Change Loy,
- Abstract要約: 我々は、オブジェクトとそれに関連する視覚的アーティファクトの両方の正確なマスクとともに、オブジェクト効果と不要なペア画像を提供するOBERという、オブジェクト・エフェクト除去のための新しいデータセットを紹介した。
本研究では,物体効果の注意機構を組み込んだ新しいフレームワーク ObjectClear を提案する。
実験では、ObjectClearが既存のメソッドよりも優れており、特に複雑なシナリオにおいて、オブジェクト・エフェクトの除去品質と背景の忠実さの改善を実現している。
- 参考スコア(独自算出の注目度): 56.2893552300215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object removal requires eliminating not only the target object but also its effects, such as shadows and reflections. However, diffusion-based inpainting methods often produce artifacts, hallucinate content, alter background, and struggle to remove object effects accurately. To address this challenge, we introduce a new dataset for OBject-Effect Removal, named OBER, which provides paired images with and without object effects, along with precise masks for both objects and their associated visual artifacts. The dataset comprises high-quality captured and simulated data, covering diverse object categories and complex multi-object scenes. Building on OBER, we propose a novel framework, ObjectClear, which incorporates an object-effect attention mechanism to guide the model toward the foreground removal regions by learning attention masks, effectively decoupling foreground removal from background reconstruction. Furthermore, the predicted attention map enables an attention-guided fusion strategy during inference, greatly preserving background details. Extensive experiments demonstrate that ObjectClear outperforms existing methods, achieving improved object-effect removal quality and background fidelity, especially in complex scenarios.
- Abstract(参考訳): オブジェクトの削除は対象のオブジェクトだけでなく、シャドーやリフレクションといったその効果も排除する必要がある。
しかし、拡散ベースの塗布法は、しばしばアーティファクトを生成し、幻覚を生じさせ、背景を変え、オブジェクト効果を正確に除去するのに苦労する。
この課題に対処するために、オブジェクトとそれに関連する視覚的アーティファクトの両方の正確なマスクとともに、オブジェクトのエフェクトのないペアイメージを提供するOBERという、オブジェクト・エフェクト除去のための新しいデータセットを導入しました。
データセットは、さまざまなオブジェクトカテゴリと複雑なマルチオブジェクトシーンをカバーする、高品質なキャプチャーおよびシミュレートされたデータで構成されている。
OBER をベースとした新しいフレームワーク ObjectClear を提案する。このフレームワークは,対象物の効果を考慮したアテンションマスクを学習することで,前景の除去領域を誘導し,背景の復元から前景の除去を効果的に分離する。
さらに、予測されたアテンションマップは、推論中の注意誘導融合戦略を可能にし、背景情報を大幅に保存する。
大規模な実験では、ObjectClearが既存のメソッドよりも優れており、特に複雑なシナリオにおいて、オブジェクト効果の除去品質と背景忠実性の改善を実現している。
関連論文リスト
- SmartEraser: Remove Anything from Images using Masked-Region Guidance [114.36809682798784]
SmartEraserはMasked-Region Guidanceと呼ばれる新しい削除パラダイムで構築されている。
Masked-Region Guidanceは、削除プロセスのガイダンスとして、入力中のマスクされた領域を保持します。
大規模オブジェクト除去データセットであるSyn4Removalを提案する。
論文 参考訳(メタデータ) (2025-01-14T17:55:12Z) - OmniEraser: Remove Objects and Their Effects in Images with Paired Video-Frame Data [21.469971783624402]
本稿では,現実的な物体影と反射を伴う10万以上の高品質なサンプルからなる大規模データセットであるVideo4Removalを提案する。
ビデオフレームと市販のビジョンモデルからオブジェクト-バックグラウンドペアを構築することにより、データ取得の作業コストを大幅に削減することができる。
形状的なアーティファクトや意図しないコンテンツを生成するのを避けるために,Object-Background Guidanceを提案する。
我々は,オブジェクトマスクのみを入力として,オブジェクトとその視覚効果をシームレスに除去する新しい手法であるOmniEraserを提案する。
論文 参考訳(メタデータ) (2025-01-13T15:12:40Z) - Retrieval Robust to Object Motion Blur [54.34823913494456]
本研究では,動きのぼやけの影響を受けやすい画像のオブジェクト検索手法を提案する。
ぼやけたオブジェクト検索のための最初の大規模データセットを提示する。
提案手法は,新しいぼやけた検索データセット上で,最先端の検索手法より優れている。
論文 参考訳(メタデータ) (2024-04-27T23:22:39Z) - ObjectDrop: Bootstrapping Counterfactuals for Photorealistic Object Removal and Insertion [34.29147907526832]
拡散モデルは画像編集に革命をもたらしたが、しばしば物理法則に違反した画像を生成する。
本稿では,qcounterfactal データセットを中心とした実用的ソリューションを提案する。
このデータセット上で拡散モデルを微調整することで、オブジェクトを除去するだけでなく、シーンへの影響も除去できるのです。
論文 参考訳(メタデータ) (2024-03-27T17:59:52Z) - The Background Also Matters: Background-Aware Motion-Guided Objects
Discovery [2.6442319761949875]
本研究では,背景認識型動き誘導物体探索法を提案する。
我々は光学的流れから抽出した移動物体のマスクを活用し、学習機構を設計し、それらを真の前景に拡張する。
これにより、オブジェクト発見タスクとオブジェクト/非オブジェクト分離の合同学習が可能になる。
論文 参考訳(メタデータ) (2023-11-05T12:35:47Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。