論文の概要: VTGaussian-SLAM: RGBD SLAM for Large Scale Scenes with Splatting View-Tied 3D Gaussians
- arxiv url: http://arxiv.org/abs/2506.02741v1
- Date: Tue, 03 Jun 2025 10:59:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.600035
- Title: VTGaussian-SLAM: RGBD SLAM for Large Scale Scenes with Splatting View-Tied 3D Gaussians
- Title(参考訳): VTGaussian-SLAM:RGBD SLAM for Large Scale Scenes with Splatting View-Tied 3D Gaussian
- Authors: Pengchong Hu, Zhizhong Han,
- Abstract要約: 最先端の手法では、シーンを表現するために3Dガウシアンを使用し、これらのガウシアンをスプラッティングでレンダリングすることで効率とレンダリングを向上する。
これらの手法は、非効率的な追跡とマッピング戦略のため、非常に大きなシーンにスケールアップできない。
この問題を解決するために,ビュータイド3Dガウシアンと呼ばれる新しい3D表現を扱う新しいトラッキングとマッピング戦略を提案する。
- 参考スコア(独自算出の注目度): 27.62796825514193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Jointly estimating camera poses and mapping scenes from RGBD images is a fundamental task in simultaneous localization and mapping (SLAM). State-of-the-art methods employ 3D Gaussians to represent a scene, and render these Gaussians through splatting for higher efficiency and better rendering. However, these methods cannot scale up to extremely large scenes, due to the inefficient tracking and mapping strategies that need to optimize all 3D Gaussians in the limited GPU memories throughout the training to maintain the geometry and color consistency to previous RGBD observations. To resolve this issue, we propose novel tracking and mapping strategies to work with a novel 3D representation, dubbed view-tied 3D Gaussians, for RGBD SLAM systems. View-tied 3D Gaussians is a kind of simplified Gaussians, which is tied to depth pixels, without needing to learn locations, rotations, and multi-dimensional variances. Tying Gaussians to views not only significantly saves storage but also allows us to employ many more Gaussians to represent local details in the limited GPU memory. Moreover, our strategies remove the need of maintaining all Gaussians learnable throughout the training, while improving rendering quality, and tracking accuracy. We justify the effectiveness of these designs, and report better performance over the latest methods on the widely used benchmarks in terms of rendering and tracking accuracy and scalability. Please see our project page for code and videos at https://machineperceptionlab.github.io/VTGaussian-SLAM-Project .
- Abstract(参考訳): RGBD画像からのカメラポーズとマッピングシーンの同時推定は、SLAM(Concurrent Localization and Mapping)の基本的な課題である。
最先端の手法では、シーンを表現するために3Dガウシアンを使用し、これらのガウシアンをスプラッティングでレンダリングすることで効率とレンダリングを向上する。
しかし、これらの手法は、トレーニング期間中に限られたGPUメモリにおける3Dガウスの全てを最適化し、以前のRGBD観測に合わせた幾何と色の整合性を維持する非効率な追跡とマッピング戦略のために、非常に大きなシーンにスケールアップできない。
そこで本研究では,RGBD SLAMシステムにおいて,ビュータイド3Dガウシアンと呼ばれる新しい3D表現を扱うための新しいトラッキングとマッピング戦略を提案する。
ビュータイド3Dガウスアン(View-tied 3D Gaussian)は、深度画素に結びついた単純化されたガウスアンの一種で、位置、回転、多次元の分散を学習する必要がない。
ガウスアンをビューに結びつけることはストレージを大幅に節約するだけでなく、限られたGPUメモリのローカル詳細を表現するために多くのガウスアンを使うことができる。
さらに、トレーニングを通じて学習可能なすべてのガウスの維持の必要性を排除し、レンダリング品質を改善し、精度をトラッキングする。
我々はこれらの設計の有効性を正当化し、精度とスケーラビリティのレンダリングと追跡に関して、広く使われているベンチマークの最新の手法よりも優れた性能を報告します。
コードとビデオについては、https://machineperceptionlab.github.io/VTGaussian-SLAM-Projectを参照してください。
関連論文リスト
- RTG-SLAM: Real-time 3D Reconstruction at Scale using Gaussian Splatting [51.51310922527121]
ガウススプラッティングを用いた大規模環境のためのRGBDカメラを用いたリアルタイム3D再構成システムを提案する。
それぞれのガウス語は不透明かほぼ透明で、不透明なものは表面色と支配的な色に、透明なものは残留色に適合する。
様々な大きなシーンをリアルタイムに再現し、新しいビュー合成とカメラトラッキングの精度のリアリズムにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-30T16:54:59Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。