論文の概要: GSO-SLAM: Bidirectionally Coupled Gaussian Splatting and Direct Visual Odometry
- arxiv url: http://arxiv.org/abs/2602.11714v1
- Date: Thu, 12 Feb 2026 08:44:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.726677
- Title: GSO-SLAM: Bidirectionally Coupled Gaussian Splatting and Direct Visual Odometry
- Title(参考訳): GSO-SLAM:両方向結合型ガウススプラッティングと直接視覚計測
- Authors: Jiung Yeon, Seongbo Ha, Hyeonwoo Yu,
- Abstract要約: 本研究では,シーン表現を利用したリアルタイムモノラル高密度SLAMシステムを提案する。
我々の手法は視覚オドメトリー(VO)とガウススプラッティング(GS)を併用する。
本手法は,復元されたシーンの最先端/測光精度と追跡精度を実現する。
- 参考スコア(独自算出の注目度): 3.8233569758620054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose GSO-SLAM, a real-time monocular dense SLAM system that leverages Gaussian scene representation. Unlike existing methods that couple tracking and mapping with a unified scene, incurring computational costs, or loosely integrate them with well-structured tracking frameworks, introducing redundancies, our method bidirectionally couples Visual Odometry (VO) and Gaussian Splatting (GS). Specifically, our approach formulates joint optimization within an Expectation-Maximization (EM) framework, enabling the simultaneous refinement of VO-derived semi-dense depth estimates and the GS representation without additional computational overhead. Moreover, we present Gaussian Splat Initialization, which utilizes image information, keyframe poses, and pixel associations from VO to produce close approximations to the final Gaussian scene, thereby eliminating the need for heuristic methods. Through extensive experiments, we validate the effectiveness of our method, showing that it not only operates in real time but also achieves state-of-the-art geometric/photometric fidelity of the reconstructed scene and tracking accuracy.
- Abstract(参考訳): GSO-SLAMは,ガウスのシーン表現を利用したリアルタイム単分子高密度SLAMシステムである。
統合されたシーンでトラッキングとマッピングを結合したり、計算コストを発生させたり、よく構造化されたトラッキングフレームワークと緩やかに統合したり、冗長性を導入したりする既存の手法とは異なり、我々の手法はビジュアルオドメトリー(VO)とガウススプラッティング(GS)を双方向に結合する。
具体的には,期待-最大化(EM)フレームワーク内での共同最適化を定式化し,VO由来の半深度推定とGS表現を計算オーバーヘッドを伴わずに同時に改善する。
さらに, 画像情報, キーフレームポーズ, およびVOからの画素関連を利用して, 最終ガウスシーンの近似を近似し, ヒューリスティックな手法の必要性を排除したガウススプレート初期化を提案する。
広範にわたる実験により,本手法の有効性を検証し,本手法がリアルタイムに動作するだけでなく,再現されたシーンの幾何的・測光的忠実度と追跡精度も向上することを示した。
関連論文リスト
- Hi^2-GSLoc: Dual-Hierarchical Gaussian-Specific Visual Relocalization for Remote Sensing [6.997091164331322]
リモートセンシングやUAVアプリケーションには、視覚的再ローカライゼーションが不可欠である。
画像に基づく検索とポーズ回帰アプローチは精度に欠ける。
スパース・トゥ・デンス(sparse-to-dense)と粗粒度(arse-to-fine)のパラダイムに従う二重階層的再ローカライゼーションフレームワークである$mathrmHi2$-GSLocを紹介した。
論文 参考訳(メタデータ) (2025-07-21T14:47:56Z) - VINGS-Mono: Visual-Inertial Gaussian Splatting Monocular SLAM in Large Scenes [10.287279799581544]
VINGS-Monoは、大きなシーン用に設計された単分子(慣性)ガウススプラッティング(GS)SLAMフレームワークである。
このフレームワークは、VIO Front End、2D Gaussian Map、NVS Loop Closure、Dynamic Eraserの4つの主要コンポーネントで構成されている。
論文 参考訳(メタデータ) (2025-01-14T18:01:15Z) - RP-SLAM: Real-time Photorealistic SLAM with Efficient 3D Gaussian Splatting [22.76955981251234]
RP-SLAM(RP-SLAM)は、単眼およびRGB-Dカメラのための3Dガウススプラッティングに基づく視覚SLAM法である。
リアルタイム性能とモデルコンパクト性を確保しつつ、最先端の地図レンダリング精度を実現する。
論文 参考訳(メタデータ) (2024-12-13T05:27:35Z) - MGS-SLAM: Monocular Sparse Tracking and Gaussian Mapping with Depth Smooth Regularization [29.713650915551632]
本稿では,ガウススプラッティングに基づく濃密な視覚的局所化とマッピングのための新しいフレームワークを紹介する。
疎視度追跡と3次元ガウススプラッティングのシーン表現を初めて共同で最適化する。
ポーズ推定の精度は既存の手法や最先端の手法を超越している。
論文 参考訳(メタデータ) (2024-05-10T04:42:21Z) - GPS-Gaussian: Generalizable Pixel-wise 3D Gaussian Splatting for Real-time Human Novel View Synthesis [70.24111297192057]
我々は、文字の新たなビューをリアルタイムに合成するための新しいアプローチ、GPS-Gaussianを提案する。
提案手法は,スパースビューカメラ設定下での2K解像度のレンダリングを可能にする。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。