論文の概要: Remove360: Benchmarking Residuals After Object Removal in 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2508.11431v1
- Date: Fri, 15 Aug 2025 12:15:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.945236
- Title: Remove360: Benchmarking Residuals After Object Removal in 3D Gaussian Splatting
- Title(参考訳): Remove360:3次元ガウススプラッティングにおけるオブジェクト除去後の残差のベンチマーク
- Authors: Simona Kocour, Assia Benbihi, Torsten Sattler,
- Abstract要約: セマンティック残差を測定するための新しいベンチマークと評価フレームワークを導入する。
屋内および屋外の様々な場面で実験を行い、現在の手法が意味情報を保存可能であることを示す。
Remove360もリリースしました。Remove360は、リアルな環境で撮影されたRGB画像とオブジェクトレベルのマスクのデータセットです。
- 参考スコア(独自算出の注目度): 24.94028424047821
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Understanding what semantic information persists after object removal is critical for privacy-preserving 3D reconstruction and editable scene representations. In this work, we introduce a novel benchmark and evaluation framework to measure semantic residuals, the unintended semantic traces left behind, after object removal in 3D Gaussian Splatting. We conduct experiments across a diverse set of indoor and outdoor scenes, showing that current methods can preserve semantic information despite the absence of visual geometry. We also release Remove360, a dataset of pre/post-removal RGB images and object-level masks captured in real-world environments. While prior datasets have focused on isolated object instances, Remove360 covers a broader and more complex range of indoor and outdoor scenes, enabling evaluation of object removal in the context of full-scene representations. Given ground truth images of a scene before and after object removal, we assess whether we can truly eliminate semantic presence, and if downstream models can still infer what was removed. Our findings reveal critical limitations in current 3D object removal techniques and underscore the need for more robust solutions capable of handling real-world complexity. The evaluation framework is available at github.com/spatial-intelligence-ai/Remove360.git. Data are available at huggingface.co/datasets/simkoc/Remove360.
- Abstract(参考訳): オブジェクト削除後の意味情報の持続性を理解することは、プライバシを保存する3D再構成と編集可能なシーン表現にとって重要である。
本研究では,3次元ガウススプラッティングにおける物体除去後の意味的残差,意図しない意味的トレース,の意味的残差を測定するための新しいベンチマークと評価フレームワークを提案する。
室内および屋外の様々な場面で実験を行い、視覚幾何学が欠如しているにもかかわらず、現在の手法が意味情報を保存可能であることを示す。
Remove360もリリースしました。Remove360は、リアルな環境で撮影されたRGB画像とオブジェクトレベルのマスクのデータセットです。
以前のデータセットでは孤立したオブジェクトインスタンスに焦点が当てられていたが、Remove360はより広い範囲の屋内および屋外のシーンをカバーしており、フルシーン表現の文脈でオブジェクトの除去を評価することができる。
被写体除去前後のシーンの真実画像から, 意味的存在を真に排除できるかどうか, 下流モデルが除去対象を推測できるかどうかを評価する。
この結果から,現在の3次元オブジェクト除去技術における限界が明らかとなり,現実の複雑さに対処可能な,より堅牢なソリューションの必要性が浮き彫りになった。
評価フレームワークはgithub.com/spatial-intelligence-ai/Remove360.gitで利用可能である。
データは huggingface.co/datasets/simkoc/Remove360 で利用可能である。
関連論文リスト
- Is there anything left? Measuring semantic residuals of objects removed from 3D Gaussian Splatting [23.76760198539163]
本稿では,この逆問題,すなわち,探索された要素が取り除かれた後,どのくらい残っているかという問題に対処する。
本稿では,除去操作が原因となるオブジェクト残余を除去するかどうかを定量的に評価する。
最先端のシーン表現の実験は、提案した指標がユーザスタディと有意義で一致していることを示している。
論文 参考訳(メタデータ) (2025-03-21T23:07:38Z) - Multi-Modal 3D Mesh Reconstruction from Images and Text [7.9471205712560264]
少ない入力画像から3Dメッシュを再構成する言語誘導型少数ショット3D再構成法を提案する。
テクスチャとテクスチャの精度と品質の観点から,本手法の評価を行った。
論文 参考訳(メタデータ) (2025-03-10T11:18:17Z) - Total-Decom: Decomposed 3D Scene Reconstruction with Minimal Interaction [51.3632308129838]
人間のインタラクションを最小限に抑えた3次元再構成法であるTotal-Decomを提案する。
提案手法は,Segment Anything Model (SAM) とハイブリッド型暗黙的なニューラルサーフェス表現をシームレスに統合し,メッシュベースの領域成長技術を用いて正確な3次元オブジェクト分解を行う。
提案手法をベンチマークデータセット上で広範囲に評価し,アニメーションやシーン編集などの下流アプリケーションの可能性を示す。
論文 参考訳(メタデータ) (2024-03-28T11:12:33Z) - OR-NeRF: Object Removing from 3D Scenes Guided by Multiview Segmentation
with Neural Radiance Fields [53.32527220134249]
ニューラル・レージアンス・フィールド(NeRF)の出現により,3次元シーン編集への関心が高まっている。
現在の手法では、時間を要するオブジェクトのラベル付け、特定のターゲットを削除する能力の制限、削除後のレンダリング品質の妥協といった課題に直面している。
本稿では, OR-NeRF と呼ばれる新しいオブジェクト除去パイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-17T18:18:05Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - SparseDet: Towards End-to-End 3D Object Detection [12.3069609175534]
ポイントクラウドからエンドツーエンドの3Dオブジェクト検出のためのSparseDetを提案する。
新しい検出パラダイムとして、SparseDetは遅延候補を表現するための学習可能な提案の固定セットを維持している。
SparseDetはより効率的な34.5 FPSで実行しながら高い競合検出精度を達成する。
論文 参考訳(メタデータ) (2022-06-02T09:49:53Z) - OCM3D: Object-Centric Monocular 3D Object Detection [35.804542148335706]
モノクロ3次元物体検出のための新しい物体中心ボクセル表現を提案する。
具体的には、各オブジェクトの提案に基づいてボクセルを構築し、それらのサイズは点の3次元空間分布によって適応的に決定される。
本手法は、最先端の手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2021-04-13T09:15:40Z) - Objects are Different: Flexible Monocular 3D Object Detection [87.82253067302561]
そこで本研究では,乱れたオブジェクトを明示的に分離し,オブジェクト深度推定のための複数のアプローチを適応的に組み合わせたモノクル3次元オブジェクト検出のためのフレキシブルなフレームワークを提案する。
実験の結果,本手法はkittiベンチマークテストセットにおいて,中等度レベルが27%,硬度が30%と,最先端法を27%上回った。
論文 参考訳(メタデータ) (2021-04-06T07:01:28Z) - Holistic 3D Scene Understanding from a Single Image with Implicit
Representation [112.40630836979273]
単一の画像から全体的3Dシーン理解のための新しいパイプラインを提示する。
画像に基づく局所構造化暗黙ネットワークを提案し,物体形状推定を改善する。
また,新たな暗黙的なシーングラフニューラルネットワークを用いて3dオブジェクトのポーズとシーンレイアウトを洗練する。
論文 参考訳(メタデータ) (2021-03-11T02:52:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。