論文の概要: Deep Learning for Inertial Sensor Alignment
- arxiv url: http://arxiv.org/abs/2212.11120v2
- Date: Wed, 10 Apr 2024 17:15:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 20:04:52.411914
- Title: Deep Learning for Inertial Sensor Alignment
- Title(参考訳): 慣性センサアライメントのためのディープラーニング
- Authors: Maxim Freydin, Niv Sfaradi, Nimrod Segol, Areej Eweida, Barak Or,
- Abstract要約: 慣性測定ユニット(IMU)を装備したスマートフォンのヨー装着角度を学習し,車に装着するデータ駆動型アプローチを提案する。
提案モデルは、IMUからの加速度計とジャイロスコープのみを入力として使用する。
トレーニングされたモデルはAndroidデバイスにデプロイされ、推定されたヨー装着角度の精度をテストするためにリアルタイムで評価される。
- 参考スコア(独自算出の注目度): 1.9773109138840514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate alignment of a fixed mobile device equipped with inertial sensors inside a moving vehicle is important for navigation, activity recognition, and other applications. Accurate estimation of the device mounting angle is required to rotate the inertial measurement from the sensor frame to the moving platform frame to standardize measurements and improve the performance of the target task. In this work, a data-driven approach using deep neural networks (DNNs) is proposed to learn the yaw mounting angle of a smartphone equipped with an inertial measurement unit (IMU) and strapped to a car. The proposed model uses only the accelerometer and gyroscope readings from an IMU as input and, in contrast to existing solutions, does not require global position inputs from global navigation satellite systems (GNSS). To train the model in a supervised manner, IMU data is collected for training and validation with the sensor mounted at a known yaw mounting angle, and a range of ground truth labels is generated by applying a random rotation in a bounded range to the measurements. The trained model is tested on data with real rotations showing similar performance as with synthetic rotations. The trained model is deployed on an Android device and evaluated in real-time to test the accuracy of the estimated yaw mounting angle. The model is shown to find the mounting angle at an accuracy of 8 degrees within 5 seconds, and 4 degrees within 27 seconds. An experiment is conducted to compare the proposed model with an existing off-the-shelf solution.
- Abstract(参考訳): 移動体内の慣性センサーを備えた固定モバイルデバイスの正確なアライメントは、ナビゲーション、アクティビティ認識、その他の用途において重要である。
センサフレームから移動台フレームへの慣性測定を回転させて測定を標準化し、目標タスクの性能を向上させるためには、装置装着角度の正確な推定が必要である。
本研究では,車に装着した慣性測定ユニット(IMU)を備えたスマートフォンのヤウ取付角度を学習するために,ディープニューラルネットワーク(DNN)を用いたデータ駆動方式を提案する。
提案モデルは、IMUからの加速度計とジャイロスコープのみを入力とし、既存のソリューションとは対照的に、グローバルナビゲーション衛星システム(GNSS)からのグローバル位置入力を必要としない。
教師付き方法でモデルをトレーニングするために、既知のヨー取付角度に装着されたセンサを用いてIMUデータをトレーニングし、測定値に有界範囲でランダムな回転を施すことにより、地上の真理ラベルの範囲を生成する。
トレーニングされたモデルは、実回転を持つデータ上でテストされ、合成回転と同様の性能を示す。
トレーニングされたモデルはAndroidデバイスにデプロイされ、推定されたヨー装着角度の精度をテストするためにリアルタイムで評価される。
モデルでは、装着角度は5秒以内で8度、27秒以内では4度となっている。
提案したモデルと既存のオフ・ザ・シェルフ・ソリューションを比較する実験を行った。
関連論文リスト
- Improved LiDAR Odometry and Mapping using Deep Semantic Segmentation and
Novel Outliers Detection [1.0334138809056097]
高速移動プラットフォームのためのLOAMアーキテクチャに基づくリアルタイムLiDARオドメトリーとマッピングのための新しいフレームワークを提案する。
本フレームワークは,ディープラーニングモデルによって生成された意味情報を用いて,ポイント・ツー・ラインとポイント・ツー・プレーンのマッチングを改善する。
高速動作に対するLiDARオドメトリーのロバスト性に及ぼすマッチング処理の改善効果について検討した。
論文 参考訳(メタデータ) (2024-03-05T16:53:24Z) - Angle Robustness Unmanned Aerial Vehicle Navigation in GNSS-Denied
Scenarios [66.05091704671503]
本稿では、ポイントツーポイントナビゲーションタスクにおける飛行偏差に対処する新しい角度ナビゲーションパラダイムを提案する。
また、Adaptive Feature Enhance Module、Cross-knowledge Attention-guided Module、Robust Task-oriented Head Moduleを含むモデルを提案する。
論文 参考訳(メタデータ) (2024-02-04T08:41:20Z) - DoorINet: A Deep-Learning Inertial Framework for Door-Mounted IoT
Applications [2.915868985330569]
磁気センサを使わずにドアマウントで低コストな慣性センサから方向角を計算するための,エンドツーエンドのディープラーニングフレームワークであるDoorINetを提案する。
加速度計とジャイロスコープによる391分間の観測と、それに対応する地道方向の角度を含む独自のデータセットを記録している。
論文 参考訳(メタデータ) (2024-01-24T05:28:29Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - ARS-DETR: Aspect Ratio-Sensitive Detection Transformer for Aerial Oriented Object Detection [55.291579862817656]
既存のオブジェクト指向オブジェクト検出手法では、モデルの性能を測定するために計量AP$_50$が一般的である。
我々は、AP$_50$は本来、角度偏差に大きな耐性があるため、オブジェクト指向物体検出には適さないと主張している。
本稿では,ARS-DETR(Aspect Ratio Sensitive Oriented Object Detector with Transformer)を提案する。
論文 参考訳(メタデータ) (2023-03-09T02:20:56Z) - Support Vector Machine for Determining Euler Angles in an Inertial
Navigation System [55.41644538483948]
本稿では,機械学習(ML)法を用いたMEMSセンサを用いた慣性ナビゲーションシステムの精度向上について論じる。
提案アルゴリズムは,MEMSセンサに典型的なノイズの存在を正しく分類できることを実証した。
論文 参考訳(メタデータ) (2022-12-07T10:01:11Z) - Learning Car Speed Using Inertial Sensors [0.0]
ディープニューラルネットワーク(DNN)は、都市部で運転する車の速度を推定するために訓練される。
イスラエルのアシュドッド市では、グローバルなナビゲーション衛星システムを備えた車で3時間分のデータを収集した。
トレーニングされたモデルでは、位置更新を使わずに、4分間のドライブで位置精度を大幅に向上することが示されている。
論文 参考訳(メタデータ) (2022-05-15T17:46:59Z) - IDOL: Inertial Deep Orientation-Estimation and Localization [18.118289074111946]
多くのスマートフォンアプリケーションは、運動を感知するために慣性測定装置(IMU)を使用しているが、歩行者の局所化にこれらのセンサーを使用することは困難である。
近年,慣性航法の可能性が高まっている。
本稿では,まず端末の向きを推定し,次にデバイスの位置を推定するコモディティスマートフォンを用いた2段階のデータ駆動パイプラインを提案する。
論文 参考訳(メタデータ) (2021-02-08T06:41:47Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Accurate Alignment Inspection System for Low-resolution Automotive and
Mobility LiDAR [125.41260574344933]
車両やロボットなどの移動システムにおいて,センサ装着後のLiDARアライメント誤差を正確に推定する検査システムを提案する。
提案手法は, 固定位置における1つのターゲットボードのみを用いて, 水平方向(回転, 傾き, ヨー)とLiDARアタッチメントの水平位置を, 水平方向の精度で推定する。
論文 参考訳(メタデータ) (2020-08-24T17:47:59Z) - Real-Time Point Cloud Fusion of Multi-LiDAR Infrastructure Sensor Setups
with Unknown Spatial Location and Orientation [0.0]
外部からの援助から完全に切り離され、完全に自動的に実行されるアルゴリズムを提案する。
本手法は,LiDAR点雲の高精度融合に焦点を当てる。
シミュレーションおよび実測値を用いた実験により,64層LiDARの連続点雲登録をリアルタイムに行うことを確認した。
論文 参考訳(メタデータ) (2020-07-28T08:43:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。