論文の概要: PointSLAM++: Robust Dense Neural Gaussian Point Cloud-based SLAM
- arxiv url: http://arxiv.org/abs/2601.11617v1
- Date: Sat, 10 Jan 2026 04:12:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.79782
- Title: PointSLAM++: Robust Dense Neural Gaussian Point Cloud-based SLAM
- Title(参考訳): PointSLAM++:ロバストで高密度なニューラルガウスポイントクラウドベースのSLAM
- Authors: Xu Wang, Boyao Han, Xiaojun Chen, Ying Liu, Ruihui Li,
- Abstract要約: 現在の同時ローカライゼーションとマッピング(SLAM)アプローチは、奥行き雑音の存在下で構造的一貫性とロバストなポーズ推定を維持するのにしばしば苦労する。
この研究は、構造的関係を維持するために階層的に制約されたニューラルガウス表現を利用する新しいRGB-D SLAMシステムであるPointSLAM++を紹介する。
また、深度センサノイズを軽減するためにプログレッシブポーズ最適化を採用し、局所化精度を大幅に向上させた。
- 参考スコア(独自算出の注目度): 15.127969048723408
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-time 3D reconstruction is crucial for robotics and augmented reality, yet current simultaneous localization and mapping(SLAM) approaches often struggle to maintain structural consistency and robust pose estimation in the presence of depth noise. This work introduces PointSLAM++, a novel RGB-D SLAM system that leverages a hierarchically constrained neural Gaussian representation to preserve structural relationships while generating Gaussian primitives for scene mapping. It also employs progressive pose optimization to mitigate depth sensor noise, significantly enhancing localization accuracy. Furthermore, it utilizes a dynamic neural representation graph that adjusts the distribution of Gaussian nodes based on local geometric complexity, enabling the map to adapt to intricate scene details in real time. This combination yields high-precision 3D mapping and photorealistic scene rendering. Experimental results show PointSLAM++ outperforms existing 3DGS-based SLAM methods in reconstruction accuracy and rendering quality, demonstrating its advantages for large-scale AR and robotics.
- Abstract(参考訳): リアルタイム3D再構成はロボティクスと拡張現実にとって不可欠であるが、現在の局所化とマッピング(SLAM)アプローチは、奥行きノイズの存在下で構造的一貫性とロバストなポーズ推定を維持するのにしばしば苦労している。
この研究は、階層的に制約されたニューラルガウス表現を利用した新しいRGB-D SLAMシステムであるPointSLAM++を導入し、シーンマッピングのためのガウス的プリミティブを生成しながら構造的関係を保存する。
また、深度センサノイズを軽減するためにプログレッシブポーズ最適化を採用し、局所化精度を大幅に向上させた。
さらに、局所的な幾何学的複雑さに基づいてガウスノードの分布を調整する動的ニューラルネットワーク表現グラフを利用して、地図を複雑なシーンの詳細にリアルタイムで適応させることができる。
この組み合わせは高精度な3Dマッピングとフォトリアリスティックなシーンレンダリングをもたらす。
実験の結果、PointSLAM++は既存の3DGSベースのSLAM法よりも精度とレンダリング品質が優れており、大規模ARやロボット工学の優位性を示している。
関連論文リスト
- Pseudo Depth Meets Gaussian: A Feed-forward RGB SLAM Baseline [64.42938561167402]
本稿では,3次元ガウス型SLAMとフィードフォワードリカレント予測モジュールを組み合わせたオンライン3次元再構成手法を提案する。
このアプローチは、遅いテスト時間の最適化を高速なネットワーク推論に置き換え、トラッキング速度を大幅に改善する。
提案手法は,最先端のSplaTAMと同等の性能を示しながら,追跡時間を90%以上削減する。
論文 参考訳(メタデータ) (2025-08-06T16:16:58Z) - Visual SLAM with 3D Gaussian Primitives and Depth Priors Enabling Novel View Synthesis [11.236094544193605]
従来の幾何学に基づくSLAMシステムは、密度の高い3D再構成機能を持たない。
本稿では,新しいビュー合成技術である3次元ガウススプラッティングを組み込んだリアルタイムRGB-D SLAMシステムを提案する。
論文 参考訳(メタデータ) (2024-08-10T21:23:08Z) - IG-SLAM: Instant Gaussian SLAM [6.228980850646457]
3D Gaussian SplattingはSLAMシステムにおける代替シーン表現として期待できる結果を示した。
本稿では,RGBのみの高密度SLAMシステムであるIG-SLAMについて述べる。
我々は、最先端のRGBのみのSLAMシステムと競合する性能を示し、高速な動作速度を実現する。
論文 参考訳(メタデータ) (2024-08-02T09:07:31Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - NeSLAM: Neural Implicit Mapping and Self-Supervised Feature Tracking With Depth Completion and Denoising [23.876281686625134]
我々は,高精度で密度の高い深度推定,ロバストなカメラトラッキング,新しいビューの現実的な合成を実現するフレームワークNeSLAMを提案する。
各種屋内データセットを用いた実験は、再構築、品質追跡、新しいビュー合成におけるシステムの有効性と精度を示す。
論文 参考訳(メタデータ) (2024-03-29T07:59:37Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。