論文の概要: Large-Scale Gaussian Splatting SLAM
- arxiv url: http://arxiv.org/abs/2505.09915v1
- Date: Thu, 15 May 2025 03:00:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.156389
- Title: Large-Scale Gaussian Splatting SLAM
- Title(参考訳): 大規模ガウス散乱SLAM
- Authors: Zhe Xin, Chenyang Wu, Penghui Huang, Yanyong Zhang, Yinian Mao, Guoquan Huang,
- Abstract要約: 本稿では,LSG-SLAMと呼ばれるステレオカメラを用いた大規模3DGSベースの視覚SLAMを提案する。
EuRocとKITTIデータセットに対する広範な評価により、LSG-SLAMは既存のNeural、3DGSベースの、さらには従来のアプローチよりも優れたパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 21.253966057320383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recently developed Neural Radiance Fields (NeRF) and 3D Gaussian Splatting (3DGS) have shown encouraging and impressive results for visual SLAM. However, most representative methods require RGBD sensors and are only available for indoor environments. The robustness of reconstruction in large-scale outdoor scenarios remains unexplored. This paper introduces a large-scale 3DGS-based visual SLAM with stereo cameras, termed LSG-SLAM. The proposed LSG-SLAM employs a multi-modality strategy to estimate prior poses under large view changes. In tracking, we introduce feature-alignment warping constraints to alleviate the adverse effects of appearance similarity in rendering losses. For the scalability of large-scale scenarios, we introduce continuous Gaussian Splatting submaps to tackle unbounded scenes with limited memory. Loops are detected between GS submaps by place recognition and the relative pose between looped keyframes is optimized utilizing rendering and feature warping losses. After the global optimization of camera poses and Gaussian points, a structure refinement module enhances the reconstruction quality. With extensive evaluations on the EuRoc and KITTI datasets, LSG-SLAM achieves superior performance over existing Neural, 3DGS-based, and even traditional approaches. Project page: https://lsg-slam.github.io.
- Abstract(参考訳): 最近開発されたNeural Radiance Fields (NeRF) と3D Gaussian Splatting (3DGS) は、視覚SLAMに対して有望で印象的な結果を示している。
しかし、ほとんどの代表的な方法はRGBDセンサーを必要とし、屋内環境でしか利用できない。
大規模な屋外シナリオにおける再構築の堅牢性は、まだ解明されていない。
本稿では,LSG-SLAMと呼ばれるステレオカメラを用いた大規模3DGSベースの視覚SLAMを提案する。
提案したLSG-SLAMは,大局的な視点変化の下での事前のポーズを推定するために,マルチモーダリティ戦略を採用している。
トラッキングにおいて、レンダリング損失における外観類似性の悪影響を軽減するために、特徴調整のワープ制約を導入する。
大規模シナリオのスケーラビリティを実現するため,メモリ制限のある非有界シーンに対処するための連続ガウス・スプレイティング・サブマップを導入する。
位置認識によりGSサブマップ間のループを検出し、ループされたキーフレーム間の相対的なポーズを最適化する。
カメラポーズとガウス点のグローバルな最適化の後、構造改善モジュールは復元品質を高める。
EuRocデータセットとKITTIデータセットの広範な評価により、LSG-SLAMは既存のNeural、3DGSベース、さらには従来のアプローチよりも優れたパフォーマンスを実現している。
プロジェクトページ: https://lsg-slam.github.io
関連論文リスト
- GigaSLAM: Large-Scale Monocular SLAM with Hierachical Gaussian Splats [30.608403266769788]
大規模で非有界な屋外環境のための最初のNeRF/3DGSベースのSLAMフレームワークであるGigaSLAMを紹介する。
我々のアプローチは階層的なスパースボクセルマップ表現を採用しており、ガウシアンはニューラルネットワークによって複数の詳細レベルで復号化されている。
GigaSLAMは、都市の屋外ベンチマークで高精度なトラッキングと視覚的に忠実なレンダリングを提供する。
論文 参考訳(メタデータ) (2025-03-11T06:05:15Z) - GSplatLoc: Grounding Keypoint Descriptors into 3D Gaussian Splatting for Improved Visual Localization [1.4466437171584356]
軽量なXFeat特徴抽出器から高密度かつ堅牢なキーポイント記述器を3DGSに統合する2段階の手順を提案する。
第2段階では、レンダリングベースの光度ワープ損失を最小限に抑え、初期ポーズ推定を洗練させる。
広く使われている屋内および屋外データセットのベンチマークは、最近のニューラルレンダリングベースのローカライゼーション手法よりも改善されていることを示している。
論文 参考訳(メタデータ) (2024-09-24T23:18:32Z) - IG-SLAM: Instant Gaussian SLAM [6.228980850646457]
3D Gaussian SplattingはSLAMシステムにおける代替シーン表現として期待できる結果を示した。
本稿では,RGBのみの高密度SLAMシステムであるIG-SLAMについて述べる。
我々は、最先端のRGBのみのSLAMシステムと競合する性能を示し、高速な動作速度を実現する。
論文 参考訳(メタデータ) (2024-08-02T09:07:31Z) - MotionGS : Compact Gaussian Splatting SLAM by Motion Filter [10.979138131565238]
NeRFベースのSLAMは急増しているが、3DGSベースのSLAMは希薄である。
本稿では, 深部視覚特徴, 二重選択, 3DGSを融合した新しい3DGSベースのSLAM手法を提案する。
論文 参考訳(メタデータ) (2024-05-18T00:47:29Z) - GES: Generalized Exponential Splatting for Efficient Radiance Field Rendering [112.16239342037714]
GES(Generalized Exponential Splatting)は、GEF(Generalized Exponential Function)を用いて3Dシーンをモデル化する斬新な表現である。
周波数変調損失の助けを借りて、GESは新規なビュー合成ベンチマークにおいて競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-15T17:32:50Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。