論文の概要: Multicam-SLAM: Non-overlapping Multi-camera SLAM for Indirect Visual Localization and Navigation
- arxiv url: http://arxiv.org/abs/2406.06374v1
- Date: Mon, 10 Jun 2024 15:36:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 13:28:42.029559
- Title: Multicam-SLAM: Non-overlapping Multi-camera SLAM for Indirect Visual Localization and Navigation
- Title(参考訳): Multicam-SLAM: 間接的な視覚的位置決めとナビゲーションのための非重複マルチカメラSLAM
- Authors: Shenghao Li, Luchao Pang, Xianglong Hu,
- Abstract要約: 本稿では,複数のRGB-Dカメラを用いた視覚的同時ローカライゼーションとマッピング(SLAM)の新たなアプローチを提案する。
提案手法であるMulticam-SLAMはSLAMシステムの堅牢性と精度を大幅に向上させる。
従来の単一カメラSLAMシステムと比較して, 提案手法の精度とロバスト性は良好であった。
- 参考スコア(独自算出の注目度): 1.3654846342364308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel approach to visual simultaneous localization and mapping (SLAM) using multiple RGB-D cameras. The proposed method, Multicam-SLAM, significantly enhances the robustness and accuracy of SLAM systems by capturing more comprehensive spatial information from various perspectives. This method enables the accurate determination of pose relationships among multiple cameras without the need for overlapping fields of view. The proposed Muticam-SLAM includes a unique multi-camera model, a multi-keyframes structure, and several parallel SLAM threads. The multi-camera model allows for the integration of data from multiple cameras, while the multi-keyframes and parallel SLAM threads ensure efficient and accurate pose estimation and mapping. Extensive experiments in various environments demonstrate the superior accuracy and robustness of the proposed method compared to conventional single-camera SLAM systems. The results highlight the potential of the proposed Multicam-SLAM for more complex and challenging applications. Code is available at \url{https://github.com/AlterPang/Multi_ORB_SLAM}.
- Abstract(参考訳): 本稿では,複数のRGB-Dカメラを用いた視覚的同時ローカライゼーションとマッピング(SLAM)の新たなアプローチを提案する。
提案手法であるMulticam-SLAMは,様々な視点からより包括的な空間情報を取得することにより,SLAMシステムの堅牢性と精度を著しく向上する。
重なり合う視野を必要とせずに、複数のカメラ間のポーズ関係を正確に決定することができる。
提案したMuticam-SLAMには、ユニークなマルチカメラモデル、マルチキーフレーム構造、複数の並列SLAMスレッドが含まれている。
マルチカメラモデルは複数のカメラからのデータの統合を可能にし、マルチキーフレームと並列SLAMスレッドは効率的で正確なポーズ推定とマッピングを保証する。
各種環境における広範囲な実験により,従来の単カメラSLAMシステムと比較して,提案手法の精度とロバスト性が向上した。
この結果は、より複雑で困難なアプリケーションのために提案されているMulticam-SLAMの可能性を強調している。
コードは \url{https://github.com/AlterPang/Multi_ORB_SLAM} で公開されている。
関連論文リスト
- Multi-Session SLAM with Differentiable Wide-Baseline Pose Optimization [20.88189708122356]
Multi-Session SLAMは複数の切り離されたビデオのカメラの動きを追跡する。
システムは、解離列を接続し、ビジュアル・オドメトリーを実行し、大域的な最適化を行うことができる。
論文 参考訳(メタデータ) (2024-04-23T17:55:05Z) - MTMMC: A Large-Scale Real-World Multi-Modal Camera Tracking Benchmark [63.878793340338035]
マルチターゲットマルチカメラトラッキングは、複数のカメラからのビデオストリームを使用して個人を特定し、追跡する重要なタスクである。
このタスクの既存のデータセットは、制御されたカメラネットワーク設定内で合成または人工的に構築される。
我々は16台のマルチモーダルカメラで2つの異なる環境でキャプチャされた長いビデオシーケンスを含む実世界の大規模データセットであるMTMMCを紹介する。
論文 参考訳(メタデータ) (2024-03-29T15:08:37Z) - Bi-directional Adapter for Multi-modal Tracking [67.01179868400229]
汎用の双方向アダプタを用いたマルチモーダル視覚プロンプト追跡モデルを提案する。
我々は、モーダリティ固有の情報をあるモーダリティから別のモーダリティへ転送するための、シンプルだが効果的なライト・フィーチャー・アダプタを開発した。
本モデルでは,完全微調整法と素早い学習法の両方と比較して,追跡性能が優れている。
論文 参考訳(メタデータ) (2023-12-17T05:27:31Z) - Depth Completion with Multiple Balanced Bases and Confidence for Dense
Monocular SLAM [34.78726455243436]
本稿では,軽量深度補完網をスパースSLAMシステムに統合する新しい手法を提案する。
具体的には,BBC-Netと呼ばれる,高度に最適化されたマルチバス深度補完ネットワークを提案する。
BBC-Netは、オフザシェルキーポイントベースのSLAMシステムによって生成されたスパースポイントを持つ単眼画像から、複数のバランスの取れたベースと信頼マップを予測できる。
論文 参考訳(メタデータ) (2023-09-08T06:15:27Z) - High-resolution Ecosystem Mapping in Repetitive Environments Using Dual
Camera SLAM [18.15512110340033]
本稿では,前向き広角カメラをローカライズに,下向き狭角カメラを文書化に用いたデュアルカメラSLAM手法を提案する。
いくつかの最先端のSfMアプローチと実験的な比較では、デュアルカメラSLAMアプローチが繰り返し環境システムにおいてより良い性能を発揮することが示されている。
論文 参考訳(メタデータ) (2022-01-10T14:29:37Z) - Know Your Surroundings: Panoramic Multi-Object Tracking by Multimodality
Collaboration [56.01625477187448]
MMPAT(MultiModality PAnoramic Multi-object Tracking framework)を提案する。
2次元パノラマ画像と3次元点雲を入力とし、マルチモーダルデータを用いて目標軌道を推定する。
提案手法は,検出タスクと追跡タスクの両方においてMMPATが最高性能を達成するJRDBデータセット上で評価する。
論文 参考訳(メタデータ) (2021-05-31T03:16:38Z) - OV$^{2}$SLAM : A Fully Online and Versatile Visual SLAM for Real-Time
Applications [59.013743002557646]
OV$2$SLAMは、モノクロカメラとステレオカメラの両方のセットアップ、さまざまなマップスケール、フレームレートを、数ヘルツから数百まで、完全にオンラインのアルゴリズムである。
コミュニティの利益のために、ソースコードを urlhttps://github.com/ov2slam/ov2slam でリリースします。
論文 参考訳(メタデータ) (2021-02-08T08:39:23Z) - Asynchronous Multi-View SLAM [78.49842639404413]
既存のマルチカメラSLAMシステムは、すべてのカメラの同期シャッターを想定しています。
我々のフレームワークは、トラッキング、ローカルマッピング、ループクローズの間、非同期多フレーム間で情報を関連付けるために、連続時間モーションモデルを統合する。
論文 参考訳(メタデータ) (2021-01-17T00:50:01Z) - Redesigning SLAM for Arbitrary Multi-Camera Systems [51.81798192085111]
SLAMシステムにより多くのカメラを追加することで、堅牢性と精度が向上するが、視覚的なフロントエンドの設計は大幅に複雑になる。
本研究では,任意のマルチカメラ装置で動作する適応SLAMシステムを提案する。
これらの修正を応用した最先端の視覚慣性計測装置を試作し, 改良したパイプラインが広い範囲のカメラ装置に適応可能であることを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-03-04T11:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。