論文の概要: AirIMU: Learning Uncertainty Propagation for Inertial Odometry
- arxiv url: http://arxiv.org/abs/2310.04874v4
- Date: Wed, 15 May 2024 16:14:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-16 22:33:52.935123
- Title: AirIMU: Learning Uncertainty Propagation for Inertial Odometry
- Title(参考訳): AirIMU:慣性オドメトリーにおける不確実性伝播の学習
- Authors: Yuheng Qiu, Chen Wang, Can Xu, Yutian Chen, Xunfei Zhou, Youjie Xia, Sebastian Scherer,
- Abstract要約: ストラップダウン慣性測定装置(IMU)を用いた慣性計測(IO)は多くのロボット応用において重要である。
データ駆動手法により不確実性、特に非決定論的誤差を推定するハイブリッド手法であるAirIMUを提案する。
ハンドヘルドデバイス,車両,および262kmの軌道をカバーするヘリコプターなど,さまざまなプラットフォーム上での有効性を実証する。
- 参考スコア(独自算出の注目度): 29.093168179953185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inertial odometry (IO) using strap-down inertial measurement units (IMUs) is critical in many robotic applications where precise orientation and position tracking are essential. Prior kinematic motion model-based IO methods often use a simplified linearized IMU noise model and thus usually encounter difficulties in modeling non-deterministic errors arising from environmental disturbances and mechanical defects. In contrast, data-driven IO methods struggle to accurately model the sensor motions, often leading to generalizability and interoperability issues. To address these challenges, we present AirIMU, a hybrid approach to estimate the uncertainty, especially the non-deterministic errors, by data-driven methods and increase the generalization abilities using model-based methods. We demonstrate the adaptability of AirIMU using a full spectrum of IMUs, from low-cost automotive grades to high-end navigation grades. We also validate its effectiveness on various platforms, including hand-held devices, vehicles, and a helicopter that covers a trajectory of 262 kilometers. In the ablation study, we validate the effectiveness of our learned uncertainty in an IMU-GPS pose graph optimization experiment, achieving a 31.6\% improvement in accuracy. Experiments demonstrate that jointly training the IMU noise correction and uncertainty estimation synergistically benefits both tasks.
- Abstract(参考訳): ストラップダウン慣性測定ユニット(IMU)を用いた慣性計測(IO)は、正確な向きと位置追跡が不可欠である多くのロボットアプリケーションにおいて重要である。
従来の運動モデルに基づくIO法では、単純化された線形化IMUノイズモデルを用いることが多いため、環境障害や機械的欠陥から生じる非決定論的誤差のモデル化に困難が伴うことが多い。
対照的に、データ駆動型IO手法はセンサーの動きを正確にモデル化するのに苦労し、しばしば一般化可能性や相互運用性の問題に繋がる。
これらの課題に対処するために,データ駆動手法による不確実性,特に非決定論的誤差を推定し,モデルに基づく手法による一般化能力を高めるためのハイブリッドアプローチであるAirIMUを提案する。
低コストの自動車グレードからハイエンドのナビゲーショングレードまで,全スペクトルのIMUを用いたAirIMUの適応性を示す。
また、ハンドヘルドデバイス、車両、および262kmの軌道をカバーするヘリコプターなど、さまざまなプラットフォーム上での有効性を検証する。
In the ablation study, we validate the effective of our learned uncertainty in a IMU-GPS pose graph optimization experiment, achieved a 31.6\% improve in accuracy。
実験により、IMUノイズ補正と不確実性推定を共同でトレーニングすることは、両方のタスクに相乗的に有用であることが示された。
関連論文リスト
- Data-driven Semi-supervised Machine Learning with Surrogate Safety Measures for Abnormal Driving Behavior Detection [6.972018255192681]
本研究では,いくつかの異常運転行動を明らかにする大規模実世界のデータを分析した。
部分ラベル付きデータを用いた半教師付き機械学習(ML)法を開発し,異常運転行動を正確に検出する。
論文 参考訳(メタデータ) (2023-12-07T16:16:09Z) - Filling the Missing: Exploring Generative AI for Enhanced Federated
Learning over Heterogeneous Mobile Edge Devices [72.61177465035031]
ローカルデータのFIMI(FIlling the MIssing)部分を活用することにより,これらの課題に対処する,AIを活用した創発的なフェデレーション学習を提案する。
実験の結果,FIMIはデバイス側エネルギーの最大50%を節約し,目標とするグローバルテスト精度を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-21T12:07:04Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - On Robust Numerical Solver for ODE via Self-Attention Mechanism [82.95493796476767]
我々は,内在性雑音障害を緩和し,AIによって強化された数値解法を,データサイズを小さくする訓練について検討する。
まず,教師付き学習における雑音を制御するための自己認識機構の能力を解析し,さらに微分方程式の数値解に付加的な自己認識機構を導入し,簡便かつ有効な数値解法であるAttrを提案する。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics [74.1720528573331]
教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-11T07:50:22Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Trust Your IMU: Consequences of Ignoring the IMU Drift [2.253916533377465]
本研究では,未知の焦点長と半径歪みプロファイルを持つ相対ポーズ問題を共同で解くための最初の解法を開発した。
部分校正されたセットアップでは,精度が小さく,あるいは無視できるような,最先端のアルゴリズムに比べて大幅なスピードアップを示す。
市販の異なる低コストのUAV上で提案されたソルバーを評価し、IMUドリフトに関する新しい仮定が実用アプリケーションで実現可能であることを実証する。
論文 参考訳(メタデータ) (2021-03-15T11:24:54Z) - Deep Inertial Odometry with Accurate IMU Preintegration [16.598260336275892]
慣性測定ユニット (IMU) は、環境要因に依存しないエゴモーション計測を提供する、インターセプティブなモダリティである。
本研究では,DIO(Deep Inertial odometry)のためのIMU運動モデルに対するより現実的な解として,正確な事前積分の有効性を検討する。
結果のdioは、モデル駆動とデータ駆動のアプローチの融合です。
論文 参考訳(メタデータ) (2021-01-18T13:16:04Z) - IMU Preintegrated Features for Efficient Deep Inertial Odometry [0.0]
慣性計測装置(IMU)は、様々なガジェットやロボットプラットフォームで、ユビキタスな固有受容運動測定装置として利用可能である。
これらのデータのみに基づく幾何学的変換やオードメトリの直接推論は難しい作業である。
本稿では, 深部慣性計測における生IMUデータの代替として, IMUプリインテグレーション機能を提案する。
論文 参考訳(メタデータ) (2020-07-06T17:58:35Z) - SUOD: Accelerating Large-Scale Unsupervised Heterogeneous Outlier
Detection [63.253850875265115]
外乱検出(OD)は、一般的なサンプルから異常物体を識別するための機械学習(ML)タスクである。
そこで我々は,SUODと呼ばれるモジュール型加速度システムを提案する。
論文 参考訳(メタデータ) (2020-03-11T00:22:50Z) - Intelligent Road Inspection with Advanced Machine Learning; Hybrid
Prediction Models for Smart Mobility and Transportation Maintenance Systems [1.0773924713784704]
本稿では,インテリジェント道路検査のための新しい機械学習モデルを提案する。
提案モデルでは, 落下重量偏向計(FWD)による表面偏向データを用いて, 舗装条件指数(PCI)の予測を行う。
解析結果は,平均相対誤差(APRE),平均絶対相対誤差(AAPRE),根平均二乗誤差(RMSE),標準誤差(SD)の4つの基準を用いて検証された。
論文 参考訳(メタデータ) (2020-01-18T19:12:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。