論文の概要: MIMC-VINS: A Versatile and Resilient Multi-IMU Multi-Camera
Visual-Inertial Navigation System
- arxiv url: http://arxiv.org/abs/2006.15699v1
- Date: Sun, 28 Jun 2020 20:16:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 03:00:27.169462
- Title: MIMC-VINS: A Versatile and Resilient Multi-IMU Multi-Camera
Visual-Inertial Navigation System
- Title(参考訳): MIMC-VINS:マルチカメラ・マルチ慣性ナビゲーションシステム
- Authors: Kevin Eckenhoff, Patrick Geneva, and Guoquan Huang
- Abstract要約: 視覚慣性ナビゲーションシステムのためのリアルタイム一貫したマルチIMUマルチカメラ(CMU)-VINS推定器を提案する。
効率的な多状態制約フィルタ内では、提案したMIMC-VINSアルゴリズムは、すべてのセンサからの非同期測定を最適に融合する。
提案したMIMC-VINSはモンテカルロシミュレーションと実世界実験の両方で検証されている。
- 参考スコア(独自算出の注目度): 44.76768683036822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As cameras and inertial sensors are becoming ubiquitous in mobile devices and
robots, it holds great potential to design visual-inertial navigation systems
(VINS) for efficient versatile 3D motion tracking which utilize any (multiple)
available cameras and inertial measurement units (IMUs) and are resilient to
sensor failures or measurement depletion. To this end, rather than the standard
VINS paradigm using a minimal sensing suite of a single camera and IMU, in this
paper we design a real-time consistent multi-IMU multi-camera (MIMC)-VINS
estimator that is able to seamlessly fuse multi-modal information from an
arbitrary number of uncalibrated cameras and IMUs. Within an efficient
multi-state constraint Kalman filter (MSCKF) framework, the proposed MIMC-VINS
algorithm optimally fuses asynchronous measurements from all sensors, while
providing smooth, uninterrupted, and accurate 3D motion tracking even if some
sensors fail. The key idea of the proposed MIMC-VINS is to perform high-order
on-manifold state interpolation to efficiently process all available visual
measurements without increasing the computational burden due to estimating
additional sensors' poses at asynchronous imaging times. In order to fuse the
information from multiple IMUs, we propagate a joint system consisting of all
IMU states while enforcing rigid-body constraints between the IMUs during the
filter update stage. Lastly, we estimate online both spatiotemporal extrinsic
and visual intrinsic parameters to make our system robust to errors in prior
sensor calibration. The proposed system is extensively validated in both
Monte-Carlo simulations and real-world experiments.
- Abstract(参考訳): モバイル機器やロボットでカメラや慣性センサーが普及するにつれて、(複数の)利用可能なカメラや慣性測定ユニット(IMU)を利用して、センサ故障や測定劣化に耐性のある、効率的な多目的3Dモーショントラッキングのための視覚慣性ナビゲーションシステム(VINS)を設計する大きな可能性を秘めている。
そこで本研究では,単一カメラと imu の最小センシングスイートを用いた標準的なvinsパラダイムではなく,任意の数の非対応カメラと imu からのマルチモーダル情報をシームレスに融合可能な,リアルタイムに一貫性のあるマルチimuマルチカメラ (mimc)-vins推定器を設計した。
効率的な多状態制約カルマンフィルタ(MSCKF)フレームワーク内では、提案したMIMC-VINSアルゴリズムは、スムーズで非破壊的で正確な3次元モーショントラッキングを提供しながら、全てのセンサからの非同期計測を最適に融合する。
提案するmimc-vinsの鍵となるアイデアは、高次オンマニフォールド状態補間を行い、非同期撮像時に追加のセンサのポーズを推定することによる計算負荷を増加させることなく、利用可能なすべての視覚計測を効率的に処理することである。
複数のIMUからの情報を融合するために、フィルタ更新段階でIMU間の剛体制約を強制しながら、全てのIMU状態からなるジョイントシステムを伝搬する。
最後に,時空間的外因性パラメータと視覚内因性パラメータの両方をオンラインに推定し,事前のセンサキャリブレーションにおける誤差に対して頑健なシステムを構築する。
提案システムはモンテカルロシミュレーションと実世界実験の両方で広く検証されている。
関連論文リスト
- Graph-Based Multi-Modal Sensor Fusion for Autonomous Driving [3.770103075126785]
本稿では,グラフに基づく状態表現の開発に焦点をあてた,マルチモーダルセンサ融合に対する新しいアプローチを提案する。
本稿では,マルチモーダルグラフを融合する最初のオンライン状態推定手法であるSensor-Agnostic Graph-Aware Kalman Filterを提案する。
提案手法の有効性を,合成および実世界の運転データセットを用いた広範囲な実験により検証した。
論文 参考訳(メタデータ) (2024-11-06T06:58:17Z) - Traj-LIO: A Resilient Multi-LiDAR Multi-IMU State Estimator Through
Sparse Gaussian Process [20.452961476175812]
ガウス過程(GP)を利用したマルチLiDARマルチIMU状態推定器を提案する。
提案手法は,センサの異なる構成を処理でき,センサの故障に対して耐性がある。
コミュニティにコントリビュートするために、ソースコードを公開します。
論文 参考訳(メタデータ) (2024-02-14T14:08:06Z) - Multi-Visual-Inertial System: Analysis, Calibration and Estimation [26.658649118048032]
マルチビジュアル・慣性システム(MVIS)の状態を推定し,センサ融合アルゴリズムを開発した。
我々は、関連する視覚慣性センサーの完全な校正に興味を持っている。
論文 参考訳(メタデータ) (2023-08-10T02:47:36Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics [74.1720528573331]
教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-11T07:50:22Z) - AFT-VO: Asynchronous Fusion Transformers for Multi-View Visual Odometry
Estimation [39.351088248776435]
複数のセンサからVOを推定する新しいトランスフォーマーベースのセンサ融合アーキテクチャであるAFT-VOを提案する。
本フレームワークは,非同期マルチビューカメラからの予測と,異なる情報源からの計測の時間的差を考慮に入れたものである。
実験により,VO推定のための多視点融合により,頑健かつ正確な軌道が得られ,難易度と照明条件の両方において高い性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-06-26T19:29:08Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - siaNMS: Non-Maximum Suppression with Siamese Networks for Multi-Camera
3D Object Detection [65.03384167873564]
サイムズネットワークは、よく知られた3Dオブジェクト検出器アプローチのパイプラインに統合される。
アソシエーションはオブジェクトの3Dボックスレグレッションを強化するために利用される。
nuScenesデータセットの実験的評価は,提案手法が従来のNMS手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2020-02-19T15:32:38Z) - Learning Selective Sensor Fusion for States Estimation [47.76590539558037]
本稿では,エンド・ツー・エンドのセンサ・フュージョン・モジュールであるSelectFusionを提案する。
予測中、ネットワークは異なるセンサーモードから潜伏する特徴の信頼性を評価することができる。
我々は、公開データセットと漸進的に劣化したデータセットの両方において、すべての融合戦略を広範囲に評価する。
論文 参考訳(メタデータ) (2019-12-30T20:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。