論文の概要: TVG-SLAM: Robust Gaussian Splatting SLAM with Tri-view Geometric Constraints
- arxiv url: http://arxiv.org/abs/2506.23207v1
- Date: Sun, 29 Jun 2025 12:31:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.773978
- Title: TVG-SLAM: Robust Gaussian Splatting SLAM with Tri-view Geometric Constraints
- Title(参考訳): TVG-SLAM: 立体幾何学制約付きロバストガウス格子SLAM
- Authors: Zhen Tan, Xieyuanli Chen, Lei Feng, Yangbing Ge, Shuaifeng Zhi, Jiaxiong Liu, Dewen Hu,
- Abstract要約: TVG-SLAMはRGBのみの堅牢な3DGS SLAMシステムである。
本手法はロバスト性を向上し,平均的絶対軌道誤差(ATE)を69.0%削減し,最先端のレンダリング品質を実現する。
- 参考スコア(独自算出の注目度): 22.121665995381324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in 3D Gaussian Splatting (3DGS) have enabled RGB-only SLAM systems to achieve high-fidelity scene representation. However, the heavy reliance of existing systems on photometric rendering loss for camera tracking undermines their robustness, especially in unbounded outdoor environments with severe viewpoint and illumination changes. To address these challenges, we propose TVG-SLAM, a robust RGB-only 3DGS SLAM system that leverages a novel tri-view geometry paradigm to ensure consistent tracking and high-quality mapping. We introduce a dense tri-view matching module that aggregates reliable pairwise correspondences into consistent tri-view matches, forming robust geometric constraints across frames. For tracking, we propose Hybrid Geometric Constraints, which leverage tri-view matches to construct complementary geometric cues alongside photometric loss, ensuring accurate and stable pose estimation even under drastic viewpoint shifts and lighting variations. For mapping, we propose a new probabilistic initialization strategy that encodes geometric uncertainty from tri-view correspondences into newly initialized Gaussians. Additionally, we design a Dynamic Attenuation of Rendering Trust mechanism to mitigate tracking drift caused by mapping latency. Experiments on multiple public outdoor datasets show that our TVG-SLAM outperforms prior RGB-only 3DGS-based SLAM systems. Notably, in the most challenging dataset, our method improves tracking robustness, reducing the average Absolute Trajectory Error (ATE) by 69.0\% while achieving state-of-the-art rendering quality. The implementation of our method will be released as open-source.
- Abstract(参考訳): 近年の3Dガウススティング(3DGS)により、RGBのみのSLAMシステムが高忠実度シーン表現を実現している。
しかし、カメラトラッキングにおける既存のシステムのレンダリング損失への依存度は、特に厳しい視点と照明の変化のある非有界な屋外環境において、その頑丈さを損なう。
これらの課題に対処するため、我々は、一貫したトラッキングと高品質なマッピングを確保するために、新しい三ビュー幾何学パラダイムを活用する、堅牢なRGBのみの3DGS SLAMシステムであるTVG-SLAMを提案する。
信頼性のあるペアワイズ対応を一貫したトリビューマッチングに集約し,フレーム間のロバストな幾何学的制約を形成する高密度トリビューマッチングモジュールを提案する。
追従のためのハイブリッド幾何制約を提案する。この手法は,光量損失と相補的な幾何学的手がかりを構築し,劇的な視点シフトや照明変動の下でも正確かつ安定したポーズ推定を実現する。
本稿では,3次元対応からの幾何的不確かさを新たな初期化ガウスにエンコードする確率的初期化戦略を提案する。
さらに、マッピング遅延によるトラッキングドリフトを緩和する動的レンダリングトラスト機構を設計する。
複数の屋外データセットの実験では、TVG-SLAMはRGBのみの3DGSベースのSLAMシステムよりも優れていた。
特に、最も困難なデータセットでは、ロバスト性を向上し、最先端のレンダリング品質を達成しつつ、平均的絶対軌道誤差(ATE)を69.0\%削減する。
本手法の実装をオープンソースとして公開する。
関連論文リスト
- Generalizable and Relightable Gaussian Splatting for Human Novel View Synthesis [49.67420486373202]
GRGSは、多彩な照明条件下での高忠実なヒューマン・ノベル・ビュー・シンセサイザーのための一般的な3Dガウスのフレームワークである。
我々は, 精密深度および表面の正常度を予測するために, 合成依存データに基づいて学習した照明対応幾何微細化(LGR)モジュールを提案する。
論文 参考訳(メタデータ) (2025-05-27T17:59:47Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - SplatMAP: Online Dense Monocular SLAM with 3D Gaussian Splatting [7.2305711760924085]
本稿では,高忠実度3DGSに高密度SLAMを組み込むことにより,リアルタイム・高密度化を実現するフレームワークを提案する。
本手法では,SLAMから高密度点雲を利用することにより,ガウスモデルを動的に更新・密度化するSLAM-Informed Adaptive Densificationを導入する。
ReplicaとTUM-RGBDデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2025-01-13T02:28:13Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Gaussian Splatting SLAM [16.3858380078553]
単分子SLAMにおける3次元ガウス散乱の最初の応用について述べる。
我々の方法は3fpsで動作し、正確な追跡、マッピング、高品質なレンダリングに必要な表現を統一する。
ライブカメラから高忠実度で連続的に3Dシーンを再構築するためには、いくつかの革新が必要である。
論文 参考訳(メタデータ) (2023-12-11T18:19:04Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。