論文の概要: GauSSmart: Enhanced 3D Reconstruction through 2D Foundation Models and Geometric Filtering
- arxiv url: http://arxiv.org/abs/2510.14270v1
- Date: Thu, 16 Oct 2025 03:38:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.707733
- Title: GauSSmart: Enhanced 3D Reconstruction through 2D Foundation Models and Geometric Filtering
- Title(参考訳): GauSSmart: 2次元基礎モデルと幾何学的フィルタリングによる3次元再構成
- Authors: Alexander Valverde, Brian Xu, Yuyin Zhou, Meng Xu, Hongyun Wang,
- Abstract要約: 2次元基礎モデルと3次元ガウススプラッティング再構成をブリッジするハイブリッド手法であるGauSSmartを提案する。
提案手法は,凸フィルタリングや意味的特徴監視など,確立した2次元コンピュータビジョン技術を統合している。
GauSSmartは既存のGaussian Splattingよりも一貫して優れています。
- 参考スコア(独自算出の注目度): 50.675710727721786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scene reconstruction has emerged as a central challenge in computer vision, with approaches such as Neural Radiance Fields (NeRF) and Gaussian Splatting achieving remarkable progress. While Gaussian Splatting demonstrates strong performance on large-scale datasets, it often struggles to capture fine details or maintain realism in regions with sparse coverage, largely due to the inherent limitations of sparse 3D training data. In this work, we propose GauSSmart, a hybrid method that effectively bridges 2D foundational models and 3D Gaussian Splatting reconstruction. Our approach integrates established 2D computer vision techniques, including convex filtering and semantic feature supervision from foundational models such as DINO, to enhance Gaussian-based scene reconstruction. By leveraging 2D segmentation priors and high-dimensional feature embeddings, our method guides the densification and refinement of Gaussian splats, improving coverage in underrepresented areas and preserving intricate structural details. We validate our approach across three datasets, where GauSSmart consistently outperforms existing Gaussian Splatting in the majority of evaluated scenes. Our results demonstrate the significant potential of hybrid 2D-3D approaches, highlighting how the thoughtful combination of 2D foundational models with 3D reconstruction pipelines can overcome the limitations inherent in either approach alone.
- Abstract(参考訳): コンピュータビジョンにおける中心的な課題として、Neural Radiance Fields (NeRF)やGaussian Splattingといったアプローチが目覚ましい進歩を遂げている。
Gaussian Splattingは大規模なデータセットで高いパフォーマンスを示すが、細部を捉えたり、スパースな範囲でリアリズムを維持するのに苦労することが多い。
本研究では,2次元基礎モデルと3次元ガウススプラッティング再構成を効果的に橋渡しするハイブリッド手法であるGauSSmartを提案する。
提案手法は,DINOなどの基本モデルからの凸フィルタリングや意味的特徴管理など,確立した2次元コンピュータビジョン技術を統合し,ガウス的シーン再構築の強化を図る。
提案手法は,2次元セグメント化先行と高次元特徴埋め込みを利用して,ガウススプレートの密度化と微細化を導出し,未表現領域のカバレッジを向上し,複雑な構造情報を保存する。
評価シーンの大部分において,GauSSmartが既存のGaussian Splattingを一貫して上回る3つのデータセットにまたがるアプローチを検証する。
以上の結果から,ハイブリッド2次元3次元モデルと3次元再構成パイプラインの思慮深い組み合わせが,いずれのアプローチにも固有の限界を克服できることを示す。
関連論文リスト
- Gesplat: Robust Pose-Free 3D Reconstruction via Geometry-Guided Gaussian Splatting [21.952325954391508]
本稿では、3DGSベースのフレームワークであるGesplatを紹介し、ロバストな新しいビュー合成と、未提示のスパース画像からの幾何的に一貫した再構成を可能にする。
提案手法は,他のポーズフリー手法と比較して,前方および大規模の複雑なデータセット上でより堅牢な性能を実現する。
論文 参考訳(メタデータ) (2025-10-11T08:13:46Z) - D$^2$GS: Depth-and-Density Guided Gaussian Splatting for Stable and Accurate Sparse-View Reconstruction [73.61056394880733]
3D Gaussian Splatting (3DGS)は、3D表現を明示したリアルタイムかつ高忠実なノベルビュー合成(NVS)を可能にする。
疎視条件下では,カメラ近傍のガウス密度が過大な地域での過度適合と,ガウス範囲が不十分な遠隔地での過度適合の2つの重要な障害モードを同定する。
本稿では,奥行き案内型ドロップアウト戦略と距離認識型フィデリティ拡張モジュールという,2つの主要なコンポーネントからなる統合フレームワークD$2$GSを提案する。
論文 参考訳(メタデータ) (2025-10-09T17:59:49Z) - Stereo-GS: Multi-View Stereo Vision Model for Generalizable 3D Gaussian Splatting Reconstruction [30.518107360632488]
一般化可能な3Dガウス・スプレイティング・リコンストラクションは、高度な画像から3Dコンテンツの作成を展示する。
methodは現実世界の3Dコンテンツ生成に効率的でスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2025-07-20T11:33:13Z) - GS-2DGS: Geometrically Supervised 2DGS for Reflective Object Reconstruction [51.99776072246151]
2次元ガウス散乱(2DGS)に基づく反射物体に対するGS-2DGSと呼ばれる新しい再構成法を提案する。
合成および実データを用いた実験結果から,本手法はガウスの手法を再現・啓蒙の面で著しく上回っていることが示された。
論文 参考訳(メタデータ) (2025-06-16T05:40:16Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [86.87464903285208]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - GaussianRoom: Improving 3D Gaussian Splatting with SDF Guidance and Monocular Cues for Indoor Scene Reconstruction [5.112375652774415]
本稿では,SDFと3DGSを統合し,正確な幾何再構成とリアルタイムレンダリングを行う統合最適化フレームワークを提案する。
本手法は, 表面再構成と新しいビュー合成の両面において, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-05-30T03:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。