論文の概要: GeoRemover: Removing Objects and Their Causal Visual Artifacts
- arxiv url: http://arxiv.org/abs/2509.18538v2
- Date: Tue, 07 Oct 2025 02:32:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 15:38:21.585126
- Title: GeoRemover: Removing Objects and Their Causal Visual Artifacts
- Title(参考訳): GeoRemover: オブジェクトとその因果的視覚アーチファクトを除去する
- Authors: Zixin Zhu, Haoxiang Li, Xuelu Feng, He Wu, Chunming Qiao, Junsong Yuan,
- Abstract要約: オブジェクトの削除は、ターゲットオブジェクトとその因果的な視覚的アーティファクト(シャドーやリフレクションなど)を排除すべきである。
オブジェクトの除去を(1) 幾何学的除去と(2) 外観レンダリングに分離する幾何学的認識型2段階フレームワークを提案する。
本手法は,2つの一般的なベンチマークにおいて,オブジェクトとその関連アーティファクトを除去する際の最先端性能を実現する。
- 参考スコア(独自算出の注目度): 38.57204197752552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Towards intelligent image editing, object removal should eliminate both the target object and its causal visual artifacts, such as shadows and reflections. However, existing image appearance-based methods either follow strictly mask-aligned training and fail to remove these causal effects which are not explicitly masked, or adopt loosely mask-aligned strategies that lack controllability and may unintentionally over-erase other objects. We identify that these limitations stem from ignoring the causal relationship between an object's geometry presence and its visual effects. To address this limitation, we propose a geometry-aware two-stage framework that decouples object removal into (1) geometry removal and (2) appearance rendering. In the first stage, we remove the object directly from the geometry (e.g., depth) using strictly mask-aligned supervision, enabling structure-aware editing with strong geometric constraints. In the second stage, we render a photorealistic RGB image conditioned on the updated geometry, where causal visual effects are considered implicitly as a result of the modified 3D geometry. To guide learning in the geometry removal stage, we introduce a preference-driven objective based on positive and negative sample pairs, encouraging the model to remove objects as well as their causal visual artifacts while avoiding new structural insertions. Extensive experiments demonstrate that our method achieves state-of-the-art performance in removing both objects and their associated artifacts on two popular benchmarks. The code is available at https://github.com/buxiangzhiren/GeoRemover.
- Abstract(参考訳): インテリジェントな画像編集に向けて、オブジェクトの除去はターゲットオブジェクトとその因果的な視覚的アーティファクト(影や反射など)を排除すべきである。
しかし、既存の画像の外観に基づく手法は、厳密なマスクアライメントのトレーニングに従っており、明示的にマスクされていないこれらの因果効果を取り除くのに失敗するか、制御性に欠け、意図せず他のオブジェクトを過大評価する可能性のある緩やかなマスクアライメント戦略を採用するかのいずれかである。
これらの制限は、物体の幾何学的存在と視覚的効果の間の因果関係を無視することに起因する。
この制限に対処するために、オブジェクトの除去を(1)幾何学的除去と(2)外観レンダリングに分離する幾何学的2段階のフレームワークを提案する。
第1段階では、厳密なマスク整列監視を用いて、物体を幾何学的(例えば深さ)から直接取り除き、強い幾何学的制約を伴う構造認識編集を可能にする。
第2段階では、改良された3次元幾何学の結果、因果的な視覚効果が暗黙的に考慮されるような、更新された幾何学に基づくフォトリアリスティックなRGB画像を描画する。
幾何学的除去段階における学習の指針として,正と負のサンプルペアに基づく嗜好駆動の目標を導入し,新たな構造的挿入を避けつつ,対象と因果的な視覚的アーティファクトの除去をモデルに促す。
大規模な実験により,本手法は2つの一般的なベンチマークにおいて,オブジェクトとその関連アーティファクトを除去し,最先端の性能を実現することが実証された。
コードはhttps://github.com/buxiangzhiren/GeoRemover.comで入手できる。
関連論文リスト
- SCORP: Scene-Consistent Object Refinement via Proxy Generation and Tuning [46.441761732998536]
プロキシジェネレーションとチューニング(SCORP)によるシーン一貫性オブジェクトリファインメント(Scene-Consistent Object Refinement)について紹介する。
SCORP は、3D 生成に先立って細粒度なオブジェクトの形状と外観を復元する新しい3D拡張フレームワークである。
これは、新しいビュー合成と幾何完成タスクの両方において、最近の最先端のベースラインに対して一貫した利得を達成する。
論文 参考訳(メタデータ) (2025-06-30T13:26:21Z) - ObjectClear: Complete Object Removal via Object-Effect Attention [56.2893552300215]
我々は、オブジェクトとそれに関連する視覚的アーティファクトの両方の正確なマスクとともに、オブジェクト効果と不要なペア画像を提供するOBERという、オブジェクト・エフェクト除去のための新しいデータセットを紹介した。
本研究では,物体効果の注意機構を組み込んだ新しいフレームワーク ObjectClear を提案する。
実験では、ObjectClearが既存のメソッドよりも優れており、特に複雑なシナリオにおいて、オブジェクト・エフェクトの除去品質と背景の忠実さの改善を実現している。
論文 参考訳(メタデータ) (2025-05-28T17:51:17Z) - OmniEraser: Remove Objects and Their Effects in Images with Paired Video-Frame Data [21.469971783624402]
本稿では,現実的な物体影と反射を伴う10万以上の高品質なサンプルからなる大規模データセットであるVideo4Removalを提案する。
ビデオフレームと市販のビジョンモデルからオブジェクト-バックグラウンドペアを構築することにより、データ取得の作業コストを大幅に削減することができる。
形状的なアーティファクトや意図しないコンテンツを生成するのを避けるために,Object-Background Guidanceを提案する。
我々は,オブジェクトマスクのみを入力として,オブジェクトとその視覚効果をシームレスに除去する新しい手法であるOmniEraserを提案する。
論文 参考訳(メタデータ) (2025-01-13T15:12:40Z) - Floating No More: Object-Ground Reconstruction from a Single Image [33.34421517827975]
本研究では,3次元物体形状の再構成を目的とした新しい作業であるORG(Object Restruction with Ground)を紹介する。
提案手法では,2つのコンパクトなピクセルレベル表現を用いて,カメラ,オブジェクト,グラウンドの関係を表現している。
論文 参考訳(メタデータ) (2024-07-26T17:59:56Z) - OR-NeRF: Object Removing from 3D Scenes Guided by Multiview Segmentation
with Neural Radiance Fields [53.32527220134249]
ニューラル・レージアンス・フィールド(NeRF)の出現により,3次元シーン編集への関心が高まっている。
現在の手法では、時間を要するオブジェクトのラベル付け、特定のターゲットを削除する能力の制限、削除後のレンダリング品質の妥協といった課題に直面している。
本稿では, OR-NeRF と呼ばれる新しいオブジェクト除去パイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-17T18:18:05Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Occlusion-Aware Video Object Inpainting [72.38919601150175]
本稿では,映像における隠蔽物体の完全な形状と外観を復元する,隠蔽型映像オブジェクトの塗装について述べる。
我々の技術貢献であるVOINは、ビデオオブジェクト形状の完成と隠蔽テクスチャ生成を共同で行う。
より現実的な結果を得るために、VOINはT-PatchGANと新しい時間的YouTubeアテンションベースのマルチクラス識別器の両方を使用して最適化されている。
論文 参考訳(メタデータ) (2021-08-15T15:46:57Z) - Context-Aware Layout to Image Generation with Enhanced Object Appearance [123.62597976732948]
レイアウト・トゥ・イメージ(l2i)生成モデルの目的は、自然背景(スタフ)に対して複数のオブジェクト(もの)を含む複雑な画像を生成することである。
既存のL2Iモデルは大きな進歩を遂げているが、オブジェクト間とオブジェクト間の関係はしばしば壊れている。
これらの原因は、ジェネレータにコンテキスト認識オブジェクトや機能エンコーディングがないことと、識別装置に位置依存の外観表現がないことにあります。
論文 参考訳(メタデータ) (2021-03-22T14:43:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。