論文の概要: RoGER-SLAM: A Robust Gaussian Splatting SLAM System for Noisy and Low-light Environment Resilience
- arxiv url: http://arxiv.org/abs/2510.22600v1
- Date: Sun, 26 Oct 2025 09:32:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 17:41:21.974174
- Title: RoGER-SLAM: A Robust Gaussian Splatting SLAM System for Noisy and Low-light Environment Resilience
- Title(参考訳): RoGER-SLAM:雑音と低照度環境に対するロバストなガウス平滑化SLAMシステム
- Authors: Huilin Yin, Zhaolin Yang, Linchuan Zhang, Gerhard Rigoll, Johannes Betz,
- Abstract要約: RoGER-SLAMは3DGSのSLAMシステムで、ノイズと低照度のレジリエンスに特化している。
また,RoGER-SLAMは,他の3DGS-SLAMシステムと比較してトラジェクトリ精度と再構成品質を一貫して向上することを示した。
- 参考スコア(独自算出の注目度): 4.942278642834429
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The reliability of Simultaneous Localization and Mapping (SLAM) is severely constrained in environments where visual inputs suffer from noise and low illumination. Although recent 3D Gaussian Splatting (3DGS) based SLAM frameworks achieve high-fidelity mapping under clean conditions, they remain vulnerable to compounded degradations that degrade mapping and tracking performance. A key observation underlying our work is that the original 3DGS rendering pipeline inherently behaves as an implicit low-pass filter, attenuating high-frequency noise but also risking over-smoothing. Building on this insight, we propose RoGER-SLAM, a robust 3DGS SLAM system tailored for noise and low-light resilience. The framework integrates three innovations: a Structure-Preserving Robust Fusion (SP-RoFusion) mechanism that couples rendered appearance, depth, and edge cues; an adaptive tracking objective with residual balancing regularization; and a Contrastive Language-Image Pretraining (CLIP)-based enhancement module, selectively activated under compounded degradations to restore semantic and structural fidelity. Comprehensive experiments on Replica, TUM, and real-world sequences show that RoGER-SLAM consistently improves trajectory accuracy and reconstruction quality compared with other 3DGS-SLAM systems, especially under adverse imaging conditions.
- Abstract(参考訳): 視覚入力がノイズや照明の少ない環境では、SLAMの信頼性は厳しい制約を受ける。
最近の3D Gaussian Splatting (3DGS)ベースのSLAMフレームワークは、クリーンな条件下で高忠実度マッピングを実現するが、マッピングと追跡性能を低下させる複合劣化に弱いままである。
我々の研究の根底にある重要な観察は、元の3DGSレンダリングパイプラインが本質的に暗黙の低域通過フィルタとして振る舞うことであり、高周波ノイズを減衰させるだけでなく、過度なスムーシングのリスクも負うことである。
この知見に基づいて,ノイズと低照度レジリエンスに適した頑健な3DGS SLAMシステムであるRoGER-SLAMを提案する。
このフレームワークは、3つのイノベーションを統合している: 構造保存ロバスト融合(SP-RoFusion, Structure-Preserving Robust Fusion, SP-RoFusion)機構。
Replica, TUM, および実世界のシークエンスに関する総合的な実験により、RoGER-SLAMは他の3DGS-SLAMシステムと比較して、特に悪質な撮像条件下で、軌道精度と再構成品質を一貫して改善することが示された。
関連論文リスト
- TVG-SLAM: Robust Gaussian Splatting SLAM with Tri-view Geometric Constraints [22.121665995381324]
TVG-SLAMはRGBのみの堅牢な3DGS SLAMシステムである。
本手法はロバスト性を向上し,平均的絶対軌道誤差(ATE)を69.0%削減し,最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-06-29T12:31:05Z) - Large-Scale Gaussian Splatting SLAM [21.253966057320383]
本稿では,LSG-SLAMと呼ばれるステレオカメラを用いた大規模3DGSベースの視覚SLAMを提案する。
EuRocとKITTIデータセットに対する広範な評価により、LSG-SLAMは既存のNeural、3DGSベースの、さらには従来のアプローチよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-05-15T03:00:32Z) - LL-Gaussian: Low-Light Scene Reconstruction and Enhancement via Gaussian Splatting for Novel View Synthesis [17.470869402542533]
低照度シーンにおける新しいビュー合成(NVS)は、劣化した入力のために重要な課題である。
低照度sRGB画像からの3次元再構成と拡張のための新しいフレームワークであるLL-Gaussianを提案する。
最先端のNeRFベースの手法と比較して、LL-Gaussianは最大2000倍高速な推論を実現し、トレーニング時間を2%に短縮する。
論文 参考訳(メタデータ) (2025-04-14T15:39:31Z) - WildGS-SLAM: Monocular Gaussian Splatting SLAM in Dynamic Environments [48.51530726697405]
WildGS-SLAMは、動的環境を扱うために設計された、堅牢で効率的な単分子RGB SLAMシステムである。
本研究では,浅い多層パーセプトロンとDINOv2の特徴によって予測される不確実性マップを導入し,追跡とマッピングの両方において動的物体除去を誘導する。
その結果,WildGS-SLAMの動的環境における性能は最先端の手法に比べて優れていた。
論文 参考訳(メタデータ) (2025-04-04T19:19:40Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z) - NICER-SLAM: Neural Implicit Scene Encoding for RGB SLAM [111.83168930989503]
NICER-SLAMは、カメラポーズと階層的なニューラル暗黙マップ表現を同時に最適化するRGB SLAMシステムである。
近年のRGB-D SLAMシステムと競合する高密度マッピング,追跡,新しいビュー合成において,高い性能を示す。
論文 参考訳(メタデータ) (2023-02-07T17:06:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。