論文の概要: OUGS: Active View Selection via Object-aware Uncertainty Estimation in 3DGS
- arxiv url: http://arxiv.org/abs/2511.09397v1
- Date: Thu, 13 Nov 2025 01:52:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.55207
- Title: OUGS: Active View Selection via Object-aware Uncertainty Estimation in 3DGS
- Title(参考訳): OUGS:3DGSにおけるオブジェクト認識不確実性推定によるアクティブビュー選択
- Authors: Haiyi Li, Qi Chen, Denis Kalkofen, Hsiang-Ting Chen,
- Abstract要約: OUGSは3DGSの原則的、物理的に根拠のある不確実性定式化である。
我々の中心となる革新は、3Dガウス原始体の明示的な物理的パラメータから直接不確実性を引き出すことである。
この基盤により、セマンティックセグメンテーションマスクをシームレスに統合し、ターゲットとするオブジェクト認識の不確実性スコアを生成することができる。
- 参考スコア(独自算出の注目度): 14.124481717283544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in 3D Gaussian Splatting (3DGS) have achieved state-of-the-art results for novel view synthesis. However, efficiently capturing high-fidelity reconstructions of specific objects within complex scenes remains a significant challenge. A key limitation of existing active reconstruction methods is their reliance on scene-level uncertainty metrics, which are often biased by irrelevant background clutter and lead to inefficient view selection for object-centric tasks. We present OUGS, a novel framework that addresses this challenge with a more principled, physically-grounded uncertainty formulation for 3DGS. Our core innovation is to derive uncertainty directly from the explicit physical parameters of the 3D Gaussian primitives (e.g., position, scale, rotation). By propagating the covariance of these parameters through the rendering Jacobian, we establish a highly interpretable uncertainty model. This foundation allows us to then seamlessly integrate semantic segmentation masks to produce a targeted, object-aware uncertainty score that effectively disentangles the object from its environment. This allows for a more effective active view selection strategy that prioritizes views critical to improving object fidelity. Experimental evaluations on public datasets demonstrate that our approach significantly improves the efficiency of the 3DGS reconstruction process and achieves higher quality for targeted objects compared to existing state-of-the-art methods, while also serving as a robust uncertainty estimator for the global scene.
- Abstract(参考訳): 3Dガウススプラッティング(3DGS)の最近の進歩は、新しいビュー合成のための最先端の結果を得た。
しかし、複雑なシーン内で特定の物体の高忠実度復元を効率的に行うことは大きな課題である。
既存のアクティブリコンストラクション手法の重要な制限は、シーンレベルの不確実性指標に依存していることであり、これはしばしば無関係な背景の乱れに偏りがあり、オブジェクト中心のタスクに対する非効率なビュー選択につながる。
我々は,この課題に対処する新しいフレームワークであるOUGSを紹介する。
我々の中心となる革新は、3Dガウス原始体の明示的な物理的パラメータ(例えば、位置、スケール、回転)から直接不確実性を引き出すことである。
ヤコビアンのレンダリングによってこれらのパラメータの共分散を伝播することにより、高度に解釈可能な不確実性モデルを確立する。
この基盤により、セマンティックセグメンテーションマスクをシームレスに統合し、ターゲットとなるオブジェクト認識の不確実性スコアを生成し、オブジェクトを環境から効果的に切り離すことができる。
これにより、オブジェクトの忠実性を改善するために重要なビューを優先する、より効果的なアクティブなビュー選択戦略が可能になる。
提案手法は3DGS再構成プロセスの効率を大幅に向上し,既存の最先端手法と比較して目標物の品質を向上させるとともに,グローバルなシーンの堅牢な不確実性評価指標として機能することを示す。
関連論文リスト
- Perceptual Quality Assessment of 3D Gaussian Splatting: A Subjective Dataset and Prediction Metric [76.66966098297986]
3DGSの主観的品質評価データセットである3DGS-QAを提案する。
15種類の物体に対して225の劣化した復元を行い、共通の歪み要因の制御を可能にした。
本モデルでは,ガウス表現から空間的および測光的手がかりを抽出し,構造的に知覚された品質を推定する。
論文 参考訳(メタデータ) (2025-11-11T09:34:20Z) - RobustSplat: Decoupling Densification and Dynamics for Transient-Free 3DGS [79.15416002879239]
3D Gaussian Splattingは、ノベルビュー合成と3Dモデリングにおけるリアルタイム、フォトリアリスティックレンダリングにおいて大きな注目を集めている。
既存の手法は、過渡的なオブジェクトに影響されたシーンを正確にモデル化するのに苦労し、描画された画像のアーティファクトに繋がる。
2つの重要な設計に基づく堅牢なソリューションであるRobustSplatを提案する。
論文 参考訳(メタデータ) (2025-06-03T11:13:48Z) - Uncertainty-Aware Normal-Guided Gaussian Splatting for Surface Reconstruction from Sparse Image Sequences [21.120659841877508]
3D Gaussian Splatting (3DGS)は、新規なビュー合成において印象的なレンダリング性能を達成した。
3DGSパイプライン内の幾何的不確かさを定量化するために,不確かさを意識した正規誘導型ガウス格子(UNG-GS)を提案する。
UNG-GSはスパース配列と高密度シーケンスの両方で最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2025-03-14T08:18:12Z) - RW-Net: Enhancing Few-Shot Point Cloud Classification with a Wavelet Transform Projection-based Network [6.305913808037513]
RW-Netは、RDE(Rate-Distortion Explanation)とウェーブレット変換を統合することで、上記の課題に対処するために設計された新しいフレームワークである。
入力データの低周波成分を強調することにより、ウェーブレット変換は3次元オブジェクトの基本的な幾何学的および構造的特性をキャプチャする。
その結果,本手法は最先端の性能を達成し,数ショットの学習シナリオにおいて,より優れた一般化とロバスト性を示すことが示された。
論文 参考訳(メタデータ) (2025-01-06T18:55:59Z) - Exploring Test-Time Adaptation for Object Detection in Continually Changing Environments [20.307151769610087]
連続的テスト時間適応(CTTA)は、目標ドメインを継続的に変更するソーストレーニングモデルに徐々に適応する、有望な手法として登場した。
我々は3つのコアコンポーネントを特徴とするAMRODについて,CTTAシナリオにおける検出モデルに対するこれらの課題に対処する。
我々は,AMRODが既存の方法よりも優れている4つのCTTAオブジェクト検出タスクにおいて,AMRODの有効性を実証する。
論文 参考訳(メタデータ) (2024-06-24T08:30:03Z) - Instance-aware Multi-Camera 3D Object Detection with Structural Priors
Mining and Self-Boosting Learning [93.71280187657831]
カメラによる鳥眼視(BEV)知覚パラダイムは、自律運転分野において大きな進歩を遂げている。
画像平面のインスタンス認識をBEV検出器内の深度推定プロセスに統合するIA-BEVを提案する。
論文 参考訳(メタデータ) (2023-12-13T09:24:42Z) - Secrets of 3D Implicit Object Shape Reconstruction in the Wild [92.5554695397653]
コンピュータビジョン、ロボティクス、グラフィックスの様々な用途において、高精細な3Dオブジェクトをスパースから再構築することは重要です。
最近の神経暗黙的モデリング法は、合成データセットまたは高密度データセットで有望な結果を示す。
しかし、粗末でノイズの多い実世界のデータではパフォーマンスが悪い。
本論文では, 一般的な神経暗黙モデルの性能低下の根本原因を解析する。
論文 参考訳(メタデータ) (2021-01-18T03:24:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。