論文の概要: Traj-LIO: A Resilient Multi-LiDAR Multi-IMU State Estimator Through
Sparse Gaussian Process
- arxiv url: http://arxiv.org/abs/2402.09189v1
- Date: Wed, 14 Feb 2024 14:08:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 15:22:45.002144
- Title: Traj-LIO: A Resilient Multi-LiDAR Multi-IMU State Estimator Through
Sparse Gaussian Process
- Title(参考訳): Traj-LIO: スパースガウスプロセスによる弾力性マルチLiDAR多IMU状態推定器
- Authors: Xin Zheng, Jianke Zhu
- Abstract要約: ガウス過程(GP)を利用したマルチLiDARマルチIMU状態推定器を提案する。
提案手法は,センサの異なる構成を処理でき,センサの故障に対して耐性がある。
コミュニティにコントリビュートするために、ソースコードを公開します。
- 参考スコア(独自算出の注目度): 20.452961476175812
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, sensor suits have been equipped with redundant LiDARs and IMUs to
mitigate the risks associated with sensor failure. It is challenging for the
previous discrete-time and IMU-driven kinematic systems to incorporate multiple
asynchronized sensors, which are susceptible to abnormal IMU data. To address
these limitations, we introduce a multi-LiDAR multi-IMU state estimator by
taking advantage of Gaussian Process (GP) that predicts a non-parametric
continuous-time trajectory to capture sensors' spatial-temporal movement with
limited control states. Since the kinematic model driven by three types of
linear time-invariant stochastic differential equations are independent of
external sensor measurements, our proposed approach is capable of handling
different sensor configurations and resilient to sensor failures. Moreover, we
replace the conventional $\mathrm{SE}(3)$ state representation with the
combination of $\mathrm{SO}(3)$ and vector space, which enables GP-based
LiDAR-inertial system to fulfill the real-time requirement. Extensive
experiments on the public datasets demonstrate the versatility and resilience
of our proposed multi-LiDAR multi-IMU state estimator. To contribute to the
community, we will make our source code publicly available.
- Abstract(参考訳): 現在、センサースーツには冗長lidarとimusが装備されており、センサー故障のリスクを軽減している。
従来の離散時間およびIMU駆動キネマティックシステムでは、異常なIMUデータに影響を受けやすい複数の非同期センサーを組み込むことは困難である。
そこで本研究では,非パラメトリック連続時間軌道を予測するガウス過程(gp)を活用し,センサの空間-時間移動を限られた制御状態で捉えるマルチライダーマルチimu状態推定器を提案する。
3種類の線形時間不変確率微分方程式によって駆動される運動モデルは外部センサの計測とは独立であるので,提案手法はセンサ構成を異にし,センサ故障に耐性を持つ。
さらに、従来の$\mathrm{se}(3)$状態表現を$\mathrm{so}(3)$とベクトル空間の組み合わせで置き換え、gpベースのlidar慣性系がリアルタイム要求を満たすようにした。
公開データセットに関する広範な実験により,提案するマルチライダー・マルチimu状態推定器の汎用性とレジリエンスが実証された。
コミュニティに貢献するために、ソースコードを公開します。
関連論文リスト
- Large Language-Geometry Model: When LLM meets Equivariance [53.8505081745406]
本稿では,3次元物理システムを表現するための新しいフレームワークであるEquiLLMを提案する。
EquiLLMは分子動力学シミュレーション,ヒトの動作シミュレーション,抗体設計など,従来の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-02-16T14:50:49Z) - From One to the Power of Many: Invariance to Multi-LiDAR Perception from Single-Sensor Datasets [12.712896458348515]
ラベル付きデータを必要としないクロスドメイン一般化のプロキシとして機能する特徴レベルの不変性のための新しい指標を提案する。
アプリケーション固有の2つのデータ拡張を提案する。これは、単一センサデータセットでトレーニングされた場合、マルチセンサー設定のLiDARへの転送をより容易にする。
論文 参考訳(メタデータ) (2024-09-27T09:51:45Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - Multi-Visual-Inertial System: Analysis, Calibration and Estimation [26.658649118048032]
マルチビジュアル・慣性システム(MVIS)の状態を推定し,センサ融合アルゴリズムを開発した。
我々は、関連する視覚慣性センサーの完全な校正に興味を持っている。
論文 参考訳(メタデータ) (2023-08-10T02:47:36Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - AFT-VO: Asynchronous Fusion Transformers for Multi-View Visual Odometry
Estimation [39.351088248776435]
複数のセンサからVOを推定する新しいトランスフォーマーベースのセンサ融合アーキテクチャであるAFT-VOを提案する。
本フレームワークは,非同期マルチビューカメラからの予測と,異なる情報源からの計測の時間的差を考慮に入れたものである。
実験により,VO推定のための多視点融合により,頑健かつ正確な軌道が得られ,難易度と照明条件の両方において高い性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-06-26T19:29:08Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - Multi-Objective Bayesian Optimisation and Joint Inversion for Active
Sensor Fusion [22.04258832800079]
新しい測定値の割当にコストのかかる関数が与えられた場合,多目的最適化と逆問題のためのフレームワークを提案する。
本手法は2次元センサデータと3次元物理特性の多次元前方モデルとを共同で解くために考案された。
本研究では,2次元重力と磁気センサのデータに基づいて,新しいドリルコア測定をどこに配置するかを推奨する。
論文 参考訳(メタデータ) (2020-10-12T01:23:41Z) - MIMC-VINS: A Versatile and Resilient Multi-IMU Multi-Camera
Visual-Inertial Navigation System [44.76768683036822]
視覚慣性ナビゲーションシステムのためのリアルタイム一貫したマルチIMUマルチカメラ(CMU)-VINS推定器を提案する。
効率的な多状態制約フィルタ内では、提案したMIMC-VINSアルゴリズムは、すべてのセンサからの非同期測定を最適に融合する。
提案したMIMC-VINSはモンテカルロシミュレーションと実世界実験の両方で検証されている。
論文 参考訳(メタデータ) (2020-06-28T20:16:08Z) - siaNMS: Non-Maximum Suppression with Siamese Networks for Multi-Camera
3D Object Detection [65.03384167873564]
サイムズネットワークは、よく知られた3Dオブジェクト検出器アプローチのパイプラインに統合される。
アソシエーションはオブジェクトの3Dボックスレグレッションを強化するために利用される。
nuScenesデータセットの実験的評価は,提案手法が従来のNMS手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2020-02-19T15:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。