論文の概要: Sparse View Distractor-Free Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2603.01603v1
- Date: Mon, 02 Mar 2026 08:32:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.769755
- Title: Sparse View Distractor-Free Gaussian Splatting
- Title(参考訳): Sparse View Distractor-Free Gaussian Splatting
- Authors: Yi Gu, Zhaorui Wang, Jiahang Cao, Jiaxu Wang, Mingle Zhao, Dongjun Ye, Renjing Xu,
- Abstract要約: 3D Gaussian Splatting (3DGS) は静的環境における効率的なトレーニングと高速な新しいビューを実現する。
そこで本稿では,よりリッチな事前情報を組み込むことにより,スパースビュー条件下でのイントラクタフリーな3DGSを実現するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 31.812029183156245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) enables efficient training and fast novel view synthesis in static environments. To address challenges posed by transient objects, distractor-free 3DGS methods have emerged and shown promising results when dense image captures are available. However, their performance degrades significantly under sparse input conditions. This limitation primarily stems from the reliance on the color residual heuristics to guide the training, which becomes unreliable with limited observations. In this work, we propose a framework to enhance distractor-free 3DGS under sparse-view conditions by incorporating rich prior information. Specifically, we first adopt the geometry foundation model VGGT to estimate camera parameters and generate a dense set of initial 3D points. Then, we harness the attention maps from VGGT for efficient and accurate semantic entity matching. Additionally, we utilize Vision-Language Models (VLMs) to further identify and preserve the large static regions in the scene. We also demonstrate how these priors can be seamlessly integrated into existing distractor-free 3DGS methods. Extensive experiments confirm the effectiveness and robustness of our approach in mitigating transient distractors for sparse-view 3DGS training.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS) は静的環境下での効率的なトレーニングと高速な新規ビュー合成を可能にする。
過渡的な物体によって引き起こされる課題に対処するため、3DGS法が出現し、高密度画像キャプチャが利用可能になったときに有望な結果が示された。
しかし、その性能はスパース入力条件下で著しく低下する。
この制限は主に、トレーニングをガイドする色の残留ヒューリスティックに依存しており、限られた観測で信頼できないものになっている。
本研究では,より豊富な事前情報を組み込むことで,スパースビュー条件下でのイントラクタフリーな3DGSを実現するフレームワークを提案する。
具体的には、まず幾何学基礎モデルVGGTを用いて、カメラパラメータを推定し、初期3D点の密集集合を生成する。
次に,VGGTのアテンションマップを,効率的かつ正確なセマンティック・エンティティ・マッチングに活用する。
さらに、視覚言語モデル(VLM)を用いて、シーン内の大きな静的領域を特定し保存する。
また,従来の3DGS手法とシームレスに統合できることを実証した。
広汎な実験により,スパースビュー3DGSトレーニングにおける過渡的注意散逸を緩和するためのアプローチの有効性とロバスト性が確認された。
関連論文リスト
- GaussExplorer: 3D Gaussian Splatting for Embodied Exploration and Reasoning [55.826192239140596]
GaussExplorerは3D Gaussian Splatting(3DGS)上に構築されたボディード探索と推論のためのフレームワークである
3DGS上に視覚言語モデル(VLM)を導入し、3Dシーン内で質問駆動探索と推論を可能にする。
論文 参考訳(メタデータ) (2026-01-19T15:17:58Z) - LOST-3DSG: Lightweight Open-Vocabulary 3D Scene Graphs with Semantic Tracking in Dynamic Environments [1.5391321019692432]
LOST-3DSGは、リアルタイム環境における動的オブジェクトを追跡するために設計された、軽量なオープンな3Dシーングラフである。
提案手法は, word2vec と文埋め込みに基づくエンティティ追跡に意味論的アプローチを採用する。
TIAGoロボットを用いて実際の3次元環境における定性的,定量的な実験により,本手法の評価を行った。
論文 参考訳(メタデータ) (2026-01-06T10:44:19Z) - Towards Physically Executable 3D Gaussian for Embodied Navigation [37.428618598143395]
SAGE-3Dは、3DGSを実行可能、セマンティック、物理的に整合した環境にアップグレードする新しいパラダイムである。
1)オブジェクトレベルの微粒なアノテーションを3DGSに追加するオブジェクト中心セマンティックグラウンドリングと,(2)衝突物体を3DGSに埋め込む物理認識実行結合とから構成される。
1Kオブジェクトアノテートされた3DGS屋内シーンデータを含むInstituteGSをリリースし、2MVLNデータを備えた最初の3DGSベースのVLNベンチマークであるSAGE-Benchを紹介した。
論文 参考訳(メタデータ) (2025-10-24T10:05:00Z) - VGGT-X: When VGGT Meets Dense Novel View Synthesis [27.397168758449904]
我々は3次元基礎モデル(3DFM)を高密度新規ビュー合成(NVS)に適用する問題について検討する。
我々の研究は、3DFMを高密度に拡大することは、VRAM負荷を劇的に増加させ、3Dトレーニングを低下させる不完全な出力の2つの基本的な障壁に直面することを明らかにした。
本稿では,1000以上の画像にスケール可能なメモリ効率のよいVGGT実装,VGGT出力向上のための適応的グローバルアライメント,堅牢な3DGSトレーニングプラクティスを取り入れたVGGT-Xを紹介する。
論文 参考訳(メタデータ) (2025-09-29T17:59:59Z) - FastVGGT: Training-Free Acceleration of Visual Geometry Transformer [83.67766078575782]
VGGTは最先端のフィードフォワード視覚幾何学モデルである。
本稿では,VGGTの高速化のためのトレーニングフリーメカニズムを用いて,3次元領域におけるトークンのマージを利用したFastVGGTを提案する。
1000の入力画像により、FastVGGTはVGGTの4倍の高速化を実現し、長いシーケンスシナリオにおけるエラーの蓄積を緩和する。
論文 参考訳(メタデータ) (2025-09-02T17:54:21Z) - Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - Steepest Descent Density Control for Compact 3D Gaussian Splatting [72.54055499344052]
3D Gaussian Splatting (3DGS)は、強力なリアルタイム高解像度ノベルビューとして登場した。
本稿では,3DGSの密度制御をデミストし,改良する理論的枠組みを提案する。
我々はSteepGSを導入し、コンパクトな点雲を維持しながら損失を最小限に抑える原則的戦略である、最も急な密度制御を取り入れた。
論文 参考訳(メタデータ) (2025-05-08T18:41:38Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - Dense Point Clouds Matter: Dust-GS for Scene Reconstruction from Sparse Viewpoints [9.069919085326]
3D Gaussian Splatting (3DGS) はシーン合成および新しいビュー合成タスクにおいて顕著な性能を示した。
本研究では,スパース視点条件下での3DGSの限界を克服する新しいフレームワークであるDust-GSを提案する。
論文 参考訳(メタデータ) (2024-09-13T07:59:15Z) - SpotlessSplats: Ignoring Distractors in 3D Gaussian Splatting [44.42317312908314]
3D Gaussian Splatting (3DGS)は、3D再構成のための有望な技術であり、効率的なトレーニングとレンダリング速度を提供する。
現在の手法では、3DGSのビュー間の一貫性の仮定を満たすために、高度に制御された環境が必要である。
SpotLessSplatsは、トレーニング済みと汎用の機能と頑健な最適化を併用して、過渡的障害を効果的に無視するアプローチである。
論文 参考訳(メタデータ) (2024-06-28T17:07:11Z) - DOGS: Distributed-Oriented Gaussian Splatting for Large-Scale 3D Reconstruction Via Gaussian Consensus [56.45194233357833]
3DGSを分散訓練するDoGaussianを提案する。
大規模シーンで評価すると,3DGSのトレーニングを6回以上高速化する。
論文 参考訳(メタデータ) (2024-05-22T19:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。