論文の概要: MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction
- arxiv url: http://arxiv.org/abs/2411.16898v2
- Date: Wed, 19 Mar 2025 10:40:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:20:17.067378
- Title: MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction
- Title(参考訳): MonoGSDF: ガウス平滑誘導インシシット表面再構成のための特異な幾何学的キューの探索
- Authors: Kunyi Li, Michael Niemeyer, Zeyu Chen, Nassir Navab, Federico Tombari,
- Abstract要約: 高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
- 参考スコア(独自算出の注目度): 84.07233691641193
- License:
- Abstract: Accurate meshing from monocular images remains a key challenge in 3D vision. While state-of-the-art 3D Gaussian Splatting (3DGS) methods excel at synthesizing photorealistic novel views through rasterization-based rendering, their reliance on sparse, explicit primitives severely limits their ability to recover watertight and topologically consistent 3D surfaces.We introduce MonoGSDF, a novel method that couples Gaussian-based primitives with a neural Signed Distance Field (SDF) for high-quality reconstruction. During training, the SDF guides Gaussians' spatial distribution, while at inference, Gaussians serve as priors to reconstruct surfaces, eliminating the need for memory-intensive Marching Cubes. To handle arbitrary-scale scenes, we propose a scaling strategy for robust generalization. A multi-resolution training scheme further refines details and monocular geometric cues from off-the-shelf estimators enhance reconstruction quality. Experiments on real-world datasets show MonoGSDF outperforms prior methods while maintaining efficiency.
- Abstract(参考訳): 単眼画像からの正確なメッシュ化は、3Dビジョンにおいて重要な課題である。
最新の3Dガウススプラッティング(3DGS)法は、ラスタ化に基づくレンダリングによるフォトリアリスティックなノベルビューの合成に優れ、スパースに依存し、明示的なプリミティブは、水密でトポロジカルに整合した3D表面を回復する能力を著しく制限する。
訓練中、SDFはガウシアンの空間分布をガイドし、推測ではガウシアンは表面を再構築する先駆者として機能し、記憶集約型マーチングキューブは不要である。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
マルチレゾリューショントレーニングスキームは、オフザシェルフ推定器の細部と単色幾何学的手がかりをさらに洗練し、再構築品質を向上させる。
実世界のデータセットの実験では、MonoGSDFは効率を保ちながら、以前の方法よりも優れていた。
関連論文リスト
- GSurf: 3D Reconstruction via Signed Distance Fields with Direct Gaussian Supervision [3.2944910942497985]
マルチビュー画像からの表面再構成は3次元視覚における中核的な課題である。
近年, ニューラル・レージアンス・フィールド(NeRF)内のサイン付き距離場(SDF)を探索し, 高忠実な表面再構成を実現している。
本稿では,ガウス原始体から直接符号付き距離場を学習する新しいエンドツーエンド手法であるGSurfを紹介する。
GSurfは、VolSDFやNeuSといったニューラルな暗黙的表面法に匹敵する3D再構成品質を提供しながら、高速なトレーニングとレンダリングの速度を達成する。
論文 参考訳(メタデータ) (2024-11-24T05:55:19Z) - DeSiRe-GS: 4D Street Gaussians for Static-Dynamic Decomposition and Surface Reconstruction for Urban Driving Scenes [71.61083731844282]
本稿では,自己教師型ガウススプラッティング表現であるDeSiRe-GSについて述べる。
複雑な駆動シナリオにおいて、効率的な静的・動的分解と高忠実な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-11-18T05:49:16Z) - Neural Signed Distance Function Inference through Splatting 3D Gaussians Pulled on Zero-Level Set [49.780302894956776]
多視点表面再構成における符号付き距離関数(SDF)の推測は不可欠である。
本稿では3DGSとニューラルSDFの学習をシームレスに融合する手法を提案する。
我々の数値的および視覚的比較は、広く使用されているベンチマークの最先端結果よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-10-18T05:48:06Z) - GaussianRoom: Improving 3D Gaussian Splatting with SDF Guidance and Monocular Cues for Indoor Scene Reconstruction [3.043712258792239]
ニューラルネットワークSDFと3DGSを統合した統合フレームワークを提案する。
このフレームワークには学習可能なニューラルネットワークSDFフィールドが組み込まれており、ガウスの密度化と刈り取りをガイドしている。
本手法は, 表面再構成と新しいビュー合成の両面において, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-05-30T03:46:59Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - 3DGSR: Implicit Surface Reconstruction with 3D Gaussian Splatting [58.95801720309658]
本稿では,3次元ガウス散乱(3DGS),すなわち3DGSRを用いた暗黙的表面再構成法を提案する。
重要な洞察は、暗黙の符号付き距離場(SDF)を3Dガウスに組み込んで、それらが整列され、共同最適化されるようにすることである。
実験により, 3DGSの効率とレンダリング品質を保ちながら, 高品質な3D表面再構成が可能な3DGSR法が実証された。
論文 参考訳(メタデータ) (2024-03-30T16:35:38Z) - GPS-Gaussian: Generalizable Pixel-wise 3D Gaussian Splatting for Real-time Human Novel View Synthesis [70.24111297192057]
我々は、文字の新たなビューをリアルタイムに合成するための新しいアプローチ、GPS-Gaussianを提案する。
提案手法は,スパースビューカメラ設定下での2K解像度のレンダリングを可能にする。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。