論文の概要: LRSLAM: Low-rank Representation of Signed Distance Fields in Dense Visual SLAM System
- arxiv url: http://arxiv.org/abs/2506.10567v1
- Date: Thu, 12 Jun 2025 10:55:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.687744
- Title: LRSLAM: Low-rank Representation of Signed Distance Fields in Dense Visual SLAM System
- Title(参考訳): LRSLAM:Dense Visual SLAMシステムにおける符号付き距離場の低ランク表現
- Authors: Hongbeen Park, Minjeong Park, Giljoo Nam, Jinkyu Kim,
- Abstract要約: 我々は低ランクテンソル分解法を用いて、LRSLAMと呼ばれるより効率的な視覚SLAMモデルを提案する。
提案手法は,既存の最先端手法よりもコンバージェンス率,メモリ効率,再構築/ローカライゼーション品質を向上する。
- 参考スコア(独自算出の注目度): 10.484879583010466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simultaneous Localization and Mapping (SLAM) has been crucial across various domains, including autonomous driving, mobile robotics, and mixed reality. Dense visual SLAM, leveraging RGB-D camera systems, offers advantages but faces challenges in achieving real-time performance, robustness, and scalability for large-scale scenes. Recent approaches utilizing neural implicit scene representations show promise but suffer from high computational costs and memory requirements. ESLAM introduced a plane-based tensor decomposition but still struggled with memory growth. Addressing these challenges, we propose a more efficient visual SLAM model, called LRSLAM, utilizing low-rank tensor decomposition methods. Our approach, leveraging the Six-axis and CP decompositions, achieves better convergence rates, memory efficiency, and reconstruction/localization quality than existing state-of-the-art approaches. Evaluation across diverse indoor RGB-D datasets demonstrates LRSLAM's superior performance in terms of parameter efficiency, processing time, and accuracy, retaining reconstruction and localization quality. Our code will be publicly available upon publication.
- Abstract(参考訳): 同時ローカライゼーションとマッピング(SLAM)は、自律運転、移動ロボット工学、複合現実など、さまざまな領域で重要視されている。
RGB-Dカメラシステムを活用するDense visual SLAMは、利点を提供するが、大規模なシーンでリアルタイムのパフォーマンス、堅牢性、スケーラビリティを達成する上で、課題に直面している。
ニューラル暗黙のシーン表現を用いた最近のアプローチは、高い計算コストとメモリ要求に悩まされている。
ESLAMは平面ベースのテンソル分解を導入したが、依然としてメモリの増大に悩まされていた。
これらの課題に対処するために、低ランクテンソル分解法を用いて、LRSLAMと呼ばれるより効率的な視覚SLAMモデルを提案する。
提案手法は, 6軸分解とCP分解を利用して, 既存の最先端手法よりも収束率, メモリ効率, 再構成/ローカライゼーション品質を向上する。
様々な屋内RGB-Dデータセットによる評価は、LRSLAMのパラメータ効率、処理時間、精度において優れた性能を示し、再構成とローカライゼーションの品質を維持している。
私たちのコードは出版時に公開されます。
関連論文リスト
- SP-SLAM: Neural Real-Time Dense SLAM With Scene Priors [32.42183561158492]
本稿では,SP-SLAMを提案する。SP-SLAMは,リアルタイムにトラッキングとマッピングを行う新しいRGB-D SLAMシステムである。
SP-SLAMでは,実行中のすべての過去の入力フレームのポーズを連続的に最適化する,マッピングの効果的な最適化戦略を導入する。
その結果, 従来の手法と比較して, 高速に動作しながら, トラッキング精度, 復元精度が向上していることがわかった。
論文 参考訳(メタデータ) (2025-01-11T07:53:58Z) - DF-SLAM: Dictionary Factors Representation for High-Fidelity Neural Implicit Dense Visual SLAM System [4.498270578781014]
DF-SLAMと呼ばれる高忠実度ニューラル暗黙的視覚的局所化マッピングシステムを提案する。
本研究では,シーンの形状と外観情報を基本因子と係数因子の組み合わせとして符号化し,シーン表現に辞書因子を用いる。
モデルのサイズはシーンマップのサイズに敏感であるのに対し,本手法ではシーン詳細再構築機能とメモリ使用効率が向上している。
論文 参考訳(メタデータ) (2024-04-27T12:19:23Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - NICER-SLAM: Neural Implicit Scene Encoding for RGB SLAM [111.83168930989503]
NICER-SLAMは、カメラポーズと階層的なニューラル暗黙マップ表現を同時に最適化するRGB SLAMシステムである。
近年のRGB-D SLAMシステムと競合する高密度マッピング,追跡,新しいビュー合成において,高い性能を示す。
論文 参考訳(メタデータ) (2023-02-07T17:06:34Z) - ESLAM: Efficient Dense SLAM System Based on Hybrid Representation of
Signed Distance Fields [2.0625936401496237]
ESLAMは、未知のカメラポーズでRGB-Dフレームを読み出し、シーン表現を漸進的に再構築する。
ESLAMは3次元再構成の精度を向上し、最先端の高密度視覚SLAM法のカメラローカライゼーションを50%以上向上する。
論文 参考訳(メタデータ) (2022-11-21T18:25:14Z) - NICE-SLAM: Neural Implicit Scalable Encoding for SLAM [112.6093688226293]
NICE-SLAMは階層的なシーン表現を導入することでマルチレベルローカル情報を組み込んだ高密度SLAMシステムである。
最近の暗黙的SLAMシステムと比較して、私たちのアプローチはよりスケーラブルで効率的で堅牢です。
論文 参考訳(メタデータ) (2021-12-22T18:45:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。