論文の概要: SplatMAP: Online Dense Monocular SLAM with 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2501.07015v2
- Date: Tue, 14 Jan 2025 21:02:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:52:34.112650
- Title: SplatMAP: Online Dense Monocular SLAM with 3D Gaussian Splatting
- Title(参考訳): SplatMAP: 3Dガウススプラッティングによるオンライン高密度モノクルSLAM
- Authors: Yue Hu, Rong Liu, Meida Chen, Peter Beerel, Andrew Feng,
- Abstract要約: 本稿では,高忠実度3DGSに高密度SLAMを組み込むことにより,リアルタイム・高密度化を実現するフレームワークを提案する。
本手法では,SLAMから高密度点雲を利用することにより,ガウスモデルを動的に更新・密度化するSLAM-Informed Adaptive Densificationを導入する。
ReplicaとTUM-RGBDデータセットの実験は、我々のアプローチの有効性を実証している。
- 参考スコア(独自算出の注目度): 7.2305711760924085
- License:
- Abstract: Achieving high-fidelity 3D reconstruction from monocular video remains challenging due to the inherent limitations of traditional methods like Structure-from-Motion (SfM) and monocular SLAM in accurately capturing scene details. While differentiable rendering techniques such as Neural Radiance Fields (NeRF) address some of these challenges, their high computational costs make them unsuitable for real-time applications. Additionally, existing 3D Gaussian Splatting (3DGS) methods often focus on photometric consistency, neglecting geometric accuracy and failing to exploit SLAM's dynamic depth and pose updates for scene refinement. We propose a framework integrating dense SLAM with 3DGS for real-time, high-fidelity dense reconstruction. Our approach introduces SLAM-Informed Adaptive Densification, which dynamically updates and densifies the Gaussian model by leveraging dense point clouds from SLAM. Additionally, we incorporate Geometry-Guided Optimization, which combines edge-aware geometric constraints and photometric consistency to jointly optimize the appearance and geometry of the 3DGS scene representation, enabling detailed and accurate SLAM mapping reconstruction. Experiments on the Replica and TUM-RGBD datasets demonstrate the effectiveness of our approach, achieving state-of-the-art results among monocular systems. Specifically, our method achieves a PSNR of 36.864, SSIM of 0.985, and LPIPS of 0.040 on Replica, representing improvements of 10.7%, 6.4%, and 49.4%, respectively, over the previous SOTA. On TUM-RGBD, our method outperforms the closest baseline by 10.2%, 6.6%, and 34.7% in the same metrics. These results highlight the potential of our framework in bridging the gap between photometric and geometric dense 3D scene representations, paving the way for practical and efficient monocular dense reconstruction.
- Abstract(参考訳): SfM(Structure-from-Motion)やモノクラーSLAM(モノクラーSLAM)といった従来の手法がシーンの詳細を正確に捉えているため、モノクラービデオから高忠実な3D再構成を実現することは依然として困難である。
Neural Radiance Fields (NeRF)のような差別化可能なレンダリング技術はこれらの課題のいくつかに対処するが、計算コストが高いためリアルタイムアプリケーションには適さない。
さらに、既存の3D Gaussian Splatting (3DGS) の手法は、幾何的精度を無視し、SLAMのダイナミックディープを活用できず、シーンの精細化のために更新される。
本稿では,高忠実度3DGSに高密度SLAMを組み込むことにより,リアルタイム・高密度化を実現するフレームワークを提案する。
本手法では,SLAMから高密度点雲を利用することにより,ガウスモデルを動的に更新・密度化するSLAM-Informed Adaptive Densificationを導入する。
さらに、3DGSシーン表現の外観と形状を協調的に最適化するために、エッジ対応の幾何制約と測光整合を組み合わせたGeometry-Guided Optimizationを導入し、詳細なSLAMマッピングの再構築を可能にした。
Replica と TUM-RGBD データセットを用いた実験により, 単分子系における最先端の結果が得られた。
具体的には,従来のSOTAに比べて,PSNRが36.864,SSIMが0.985,LPIPSが0.040,10.7%,6.4%,49.4%であった。
TUM-RGBDでは、同じ測定値において、最も近いベースラインを10.2%、6.6%、34.7%で上回っている。
これらの結果は,光度と幾何学的密集3次元シーン表現のギャップを埋める枠組みの可能性を強調し,実用的で効率的な単分子密集再構築の道を開くものである。
関連論文リスト
- PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Visual SLAM with 3D Gaussian Primitives and Depth Priors Enabling Novel View Synthesis [11.236094544193605]
従来の幾何学に基づくSLAMシステムは、密度の高い3D再構成機能を持たない。
本稿では,新しいビュー合成技術である3次元ガウススプラッティングを組み込んだリアルタイムRGB-D SLAMシステムを提案する。
論文 参考訳(メタデータ) (2024-08-10T21:23:08Z) - IG-SLAM: Instant Gaussian SLAM [6.228980850646457]
3D Gaussian SplattingはSLAMシステムにおける代替シーン表現として期待できる結果を示した。
本稿では,RGBのみの高密度SLAMシステムであるIG-SLAMについて述べる。
我々は、最先端のRGBのみのSLAMシステムと競合する性能を示し、高速な動作速度を実現する。
論文 参考訳(メタデータ) (2024-08-02T09:07:31Z) - Splat-SLAM: Globally Optimized RGB-only SLAM with 3D Gaussians [87.48403838439391]
3D Splattingは、RGBのみの高密度SLAMの幾何学と外観の強力な表現として登場した。
本稿では,高密度な3次元ガウス写像表現を持つRGBのみのSLAMシステムを提案する。
Replica、TUM-RGBD、ScanNetのデータセットに対する実験は、グローバルに最適化された3Dガウスの有効性を示している。
論文 参考訳(メタデータ) (2024-05-26T12:26:54Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - CG-SLAM: Efficient Dense RGB-D SLAM in a Consistent Uncertainty-aware 3D Gaussian Field [46.8198987091734]
本稿では,新しい不確実性を考慮した3次元ガウス場に基づく高密度RGB-D SLAMシステム,すなわちCG-SLAMを提案する。
各種データセットの実験により、CG-SLAMは、最大15Hzの追従速度で優れた追従性能とマッピング性能を達成することが示された。
論文 参考訳(メタデータ) (2024-03-24T11:19:59Z) - Gaussian Splatting SLAM [16.3858380078553]
単分子SLAMにおける3次元ガウス散乱の最初の応用について述べる。
我々の方法は3fpsで動作し、正確な追跡、マッピング、高品質なレンダリングに必要な表現を統一する。
ライブカメラから高忠実度で連続的に3Dシーンを再構築するためには、いくつかの革新が必要である。
論文 参考訳(メタデータ) (2023-12-11T18:19:04Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z) - NICER-SLAM: Neural Implicit Scene Encoding for RGB SLAM [111.83168930989503]
NICER-SLAMは、カメラポーズと階層的なニューラル暗黙マップ表現を同時に最適化するRGB SLAMシステムである。
近年のRGB-D SLAMシステムと競合する高密度マッピング,追跡,新しいビュー合成において,高い性能を示す。
論文 参考訳(メタデータ) (2023-02-07T17:06:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。