論文の概要: Asynchronous Multi-View SLAM
- arxiv url: http://arxiv.org/abs/2101.06562v1
- Date: Sun, 17 Jan 2021 00:50:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 20:13:04.160395
- Title: Asynchronous Multi-View SLAM
- Title(参考訳): 非同期マルチビューSLAM
- Authors: Anqi Joyce Yang, Can Cui, Ioan Andrei B\^arsan, Raquel Urtasun,
Shenlong Wang
- Abstract要約: 既存のマルチカメラSLAMシステムは、すべてのカメラの同期シャッターを想定しています。
我々のフレームワークは、トラッキング、ローカルマッピング、ループクローズの間、非同期多フレーム間で情報を関連付けるために、連続時間モーションモデルを統合する。
- 参考スコア(独自算出の注目度): 78.49842639404413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing multi-camera SLAM systems assume synchronized shutters for all
cameras, which is often not the case in practice. In this work, we propose a
generalized multi-camera SLAM formulation which accounts for asynchronous
sensor observations. Our framework integrates a continuous-time motion model to
relate information across asynchronous multi-frames during tracking, local
mapping, and loop closing. For evaluation, we collected AMV-Bench, a
challenging new SLAM dataset covering 482 km of driving recorded using our
asynchronous multi-camera robotic platform. AMV-Bench is over an order of
magnitude larger than previous multi-view HD outdoor SLAM datasets, and covers
diverse and challenging motions and environments. Our experiments emphasize the
necessity of asynchronous sensor modeling, and show that the use of multiple
cameras is critical towards robust and accurate SLAM in challenging outdoor
scenes.
- Abstract(参考訳): 既存のマルチカメラslamシステムは全カメラの同期シャッターを想定しており、実際にはそうではないことが多い。
本研究では,非同期センサ観測を考慮した汎用マルチカメラslam方式を提案する。
我々のフレームワークは、トラッキング、ローカルマッピング、ループクローズの間、非同期多フレーム間で情報を関連付けるために、連続時間モーションモデルを統合する。
評価のために、非同期マルチカメラロボットプラットフォームを用いて482kmの走行を記録できるSLAMデータセットであるAMV-Benchを収集した。
AMV-Benchは、以前のマルチビューHD屋外SLAMデータセットよりも桁違いに大きく、多様な、挑戦的な動きと環境をカバーする。
実験では, 非同期センサモデリングの必要性を強調し, 複数のカメラの使用が, 挑戦的な屋外シーンにおいて, 堅牢かつ正確なSLAMに対して重要であることを示す。
関連論文リスト
- Motion Capture from Inertial and Vision Sensors [60.5190090684795]
MINIONSは、INertialとvisION Sensorsから収集された大規模なモーションキャプチャーデータセットである。
単眼カメラと極めて少ないIMUを用いたマルチモーダルモーションキャプチャの実験を行った。
論文 参考訳(メタデータ) (2024-07-23T09:41:10Z) - Multicam-SLAM: Non-overlapping Multi-camera SLAM for Indirect Visual Localization and Navigation [1.3654846342364308]
本稿では,複数のRGB-Dカメラを用いた視覚的同時ローカライゼーションとマッピング(SLAM)の新たなアプローチを提案する。
提案手法であるMulticam-SLAMはSLAMシステムの堅牢性と精度を大幅に向上させる。
従来の単一カメラSLAMシステムと比較して, 提案手法の精度とロバスト性は良好であった。
論文 参考訳(メタデータ) (2024-06-10T15:36:23Z) - MTMMC: A Large-Scale Real-World Multi-Modal Camera Tracking Benchmark [63.878793340338035]
マルチターゲットマルチカメラトラッキングは、複数のカメラからのビデオストリームを使用して個人を特定し、追跡する重要なタスクである。
このタスクの既存のデータセットは、制御されたカメラネットワーク設定内で合成または人工的に構築される。
我々は16台のマルチモーダルカメラで2つの異なる環境でキャプチャされた長いビデオシーケンスを含む実世界の大規模データセットであるMTMMCを紹介する。
論文 参考訳(メタデータ) (2024-03-29T15:08:37Z) - VECtor: A Versatile Event-Centric Benchmark for Multi-Sensor SLAM [31.779462222706346]
イベントカメラは、高ダイナミックな状況や難易度照明の状況において、通常のカメラを補完する強い可能性を秘めている。
私たちのコントリビューションは、マルチセンサーセットアップでキャプチャされたベンチマークデータセットの最初の完全なセットです。
個々のシーケンスには、小規模と大規模の両方の環境が含まれており、ダイナミックビジョンセンサーがターゲットとする特定の課題をカバーする。
論文 参考訳(メタデータ) (2022-07-04T13:37:26Z) - Combining Events and Frames using Recurrent Asynchronous Multimodal
Networks for Monocular Depth Prediction [51.072733683919246]
複数のセンサからの非同期および不規則なデータを処理するために、リカレント非同期マルチモーダル(RAM)ネットワークを導入する。
従来のRNNにインスパイアされたRAMネットワークは、非同期に更新され、予測を生成するためにいつでもクエリできる隠れ状態を維持している。
平均深度絶対誤差において,最先端手法を最大30%改善することを示す。
論文 参考訳(メタデータ) (2021-02-18T13:24:35Z) - Single-Frame based Deep View Synchronization for Unsynchronized
Multi-Camera Surveillance [56.964614522968226]
マルチカメラ監視はシーンの理解とモデリングにおいて活発な研究課題となっている。
通常、これらのマルチカメラベースのタスクのモデルを設計する際に、カメラはすべて時間的に同期していると仮定される。
我々のビュー同期モデルは、非同期設定下で異なるDNNベースのマルチカメラビジョンタスクに適用される。
論文 参考訳(メタデータ) (2020-07-08T04:39:38Z) - Redesigning SLAM for Arbitrary Multi-Camera Systems [51.81798192085111]
SLAMシステムにより多くのカメラを追加することで、堅牢性と精度が向上するが、視覚的なフロントエンドの設計は大幅に複雑になる。
本研究では,任意のマルチカメラ装置で動作する適応SLAMシステムを提案する。
これらの修正を応用した最先端の視覚慣性計測装置を試作し, 改良したパイプラインが広い範囲のカメラ装置に適応可能であることを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-03-04T11:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。