論文の概要: Is there anything left? Measuring semantic residuals of objects removed from 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2503.17574v1
- Date: Fri, 21 Mar 2025 23:07:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:36:59.227620
- Title: Is there anything left? Measuring semantic residuals of objects removed from 3D Gaussian Splatting
- Title(参考訳): 残るものは何か?3次元ガウス散乱から除去された物体の意味的残基の測定
- Authors: Simona Kocour, Assia Benbihi, Aikaterini Adam, Torsten Sattler,
- Abstract要約: 本稿では,この逆問題,すなわち,探索された要素が取り除かれた後,どのくらい残っているかという問題に対処する。
本稿では,除去操作が原因となるオブジェクト残余を除去するかどうかを定量的に評価する。
最先端のシーン表現の実験は、提案した指標がユーザスタディと有意義で一致していることを示している。
- 参考スコア(独自算出の注目度): 23.76760198539163
- License:
- Abstract: Searching in and editing 3D scenes has become extremely intuitive with trainable scene representations that allow linking human concepts to elements in the scene. These operations are often evaluated on the basis of how accurately the searched element is segmented or extracted from the scene. In this paper, we address the inverse problem, that is, how much of the searched element remains in the scene after it is removed. This question is particularly important in the context of privacy-preserving mapping when a user reconstructs a 3D scene and wants to remove private elements before sharing the map. To the best of our knowledge, this is the first work to address this question. To answer this, we propose a quantitative evaluation that measures whether a removal operation leaves object residuals that can be reasoned over. The scene is not private when such residuals are present. Experiments on state-of-the-art scene representations show that the proposed metrics are meaningful and consistent with the user study that we also present. We also propose a method to refine the removal based on spatial and semantic consistency.
- Abstract(参考訳): 3Dシーンの検索と編集は、人間のコンセプトをシーンの要素に結びつけることができるトレーニング可能なシーン表現によって非常に直感的になっている。
これらの操作はしばしば、探索された要素がシーンからどのように区切られたり、抽出されたかに基づいて評価される。
本稿では,この逆問題,すなわち,探索された要素が取り除かれた後,どのくらい残っているかという問題に対処する。
この問題は、ユーザが3Dシーンを再構築し、マップを共有する前にプライベート要素を削除したい場合、プライバシ保護マッピングの文脈において特に重要である。
私たちの知る限りでは、この問題に対処する最初の作業です。
そこで本研究では,除去操作が原因となるオブジェクト残余を除去するかどうかを定量的に評価する。
このような残留物が存在する場合、シーンは非公開ではない。
現状のシーン表現の実験では、提案した指標が、私たちが提示するユーザスタディと有意義で一致していることが示されている。
また,空間的・意味的整合性に基づいた除去手法を提案する。
関連論文リスト
- Robust Bayesian Scene Reconstruction by Leveraging Retrieval-Augmented Priors [17.05305897044699]
オブジェクト幾何学の3D表現を構築することは、多くの下流ロボティクスタスクにとって重要である。
本研究では,1枚のRGBD画像から多目的シーンを再構成する問題に焦点をあてる。
本稿では、既存のメッシュデータセットを利用して情報的事前構築を行う再構成手法BRRPを提案する。
論文 参考訳(メタデータ) (2024-11-29T04:14:17Z) - ObjectCarver: Semi-automatic segmentation, reconstruction and separation of 3D objects [44.38881095466177]
複数の画像から3次元表面を再構成する際、暗黙の神経磁場は顕著な進歩を遂げた。
これまでの研究は、署名された距離フィールドを個別に訓練するフレームワークを導入して、この問題に対処しようと試みてきた。
一つのビューで単に入力をクリックすることからオブジェクト分離の問題に取り組むために、ObjectCarverというメソッドを導入します。
論文 参考訳(メタデータ) (2024-07-26T22:13:20Z) - MaterialSeg3D: Segmenting Dense Materials from 2D Priors for 3D Assets [63.284244910964475]
本稿では,2次元のセマンティクスから基礎となる物質を推定する3次元アセット素材生成フレームワークを提案する。
このような先行モデルに基づいて,材料を三次元空間で解析する機構を考案する。
論文 参考訳(メタデータ) (2024-04-22T07:00:17Z) - Total-Decom: Decomposed 3D Scene Reconstruction with Minimal Interaction [51.3632308129838]
人間のインタラクションを最小限に抑えた3次元再構成法であるTotal-Decomを提案する。
提案手法は,Segment Anything Model (SAM) とハイブリッド型暗黙的なニューラルサーフェス表現をシームレスに統合し,メッシュベースの領域成長技術を用いて正確な3次元オブジェクト分解を行う。
提案手法をベンチマークデータセット上で広範囲に評価し,アニメーションやシーン編集などの下流アプリケーションの可能性を示す。
論文 参考訳(メタデータ) (2024-03-28T11:12:33Z) - OR-NeRF: Object Removing from 3D Scenes Guided by Multiview Segmentation
with Neural Radiance Fields [53.32527220134249]
ニューラル・レージアンス・フィールド(NeRF)の出現により,3次元シーン編集への関心が高まっている。
現在の手法では、時間を要するオブジェクトのラベル付け、特定のターゲットを削除する能力の制限、削除後のレンダリング品質の妥協といった課題に直面している。
本稿では, OR-NeRF と呼ばれる新しいオブジェクト除去パイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-17T18:18:05Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Holistic 3D Scene Understanding from a Single Image with Implicit
Representation [112.40630836979273]
単一の画像から全体的3Dシーン理解のための新しいパイプラインを提示する。
画像に基づく局所構造化暗黙ネットワークを提案し,物体形状推定を改善する。
また,新たな暗黙的なシーングラフニューラルネットワークを用いて3dオブジェクトのポーズとシーンレイアウトを洗練する。
論文 参考訳(メタデータ) (2021-03-11T02:52:46Z) - Associative3D: Volumetric Reconstruction from Sparse Views [17.5320459412718]
本稿では,未知のカメラを用いた2つのシーンからの3次元ボリューム再構成の問題について検討する。
本稿では, カメラ/オブジェクト上の再構成, 分布, カメラ/カメラ変換を推定する新しい手法を提案する。
屋内シーンのデータセットにアプローチをトレーニングし、テストし、共同推論アプローチのメリットを厳格に評価する。
論文 参考訳(メタデータ) (2020-07-27T17:58:53Z) - Depth Based Semantic Scene Completion with Position Importance Aware
Loss [52.06051681324545]
PALNetはセマンティックシーン補完のための新しいハイブリッドネットワークである。
詳細な深度情報を用いて,多段階から2次元特徴と3次元特徴の両方を抽出する。
オブジェクトのバウンダリやシーンの隅といった重要な詳細を復元することは有益である。
論文 参考訳(メタデータ) (2020-01-29T07:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。