論文の概要: Robust Neural Networks Outperform Attitude Estimation Filters
- arxiv url: http://arxiv.org/abs/2104.07391v1
- Date: Thu, 15 Apr 2021 11:40:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 15:07:56.395818
- Title: Robust Neural Networks Outperform Attitude Estimation Filters
- Title(参考訳): ロバストニューラルネットワークは姿勢推定フィルタを上回る
- Authors: Daniel Weber, Clemens G\"uhmann, Thomas Seel
- Abstract要約: RIANNは、堅牢なIMUベースの姿勢推定のためのリアルタイム対応ニューラルネットワークです。
我々は2つの公開データセットをメソッド開発とトレーニングに活用する。
3つの異なるテストシナリオでトレーニングされたニューラルネットワークを評価するために、4つのまったく異なるデータセットを追加します。
- 参考スコア(独自算出の注目度): 0.3867363075280543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inertial-sensor-based attitude estimation is a crucial technology in various
applications, from human motion tracking to autonomous aerial and ground
vehicles. Application scenarios differ in characteristics of the performed
motion, presence of disturbances, and environmental conditions. Since
state-of-the-art attitude estimators do not generalize well over these
characteristics, their parameters must be tuned for the individual motion
characteristics and circumstances. We propose RIANN, a real-time-capable neural
network for robust IMU-based attitude estimation, which generalizes well across
different motion dynamics, environments, and sampling rates, without the need
for application-specific adaptations. We exploit two publicly available
datasets for the method development and the training, and we add four
completely different datasets for evaluation of the trained neural network in
three different test scenarios with varying practical relevance. Results show
that RIANN performs at least as well as state-of-the-art attitude estimation
filters and outperforms them in several cases, even if the filter is tuned on
the very same test dataset itself while RIANN has never seen data from that
dataset, from the specific application, the same sensor hardware, or the same
sampling frequency before. RIANN is expected to enable plug-and-play solutions
in numerous applications, especially when accuracy is crucial but no
ground-truth data is available for tuning or when motion and disturbance
characteristics are uncertain. We made RIANN publicly available.
- Abstract(参考訳): 慣性センサーに基づく姿勢推定は、人間の動き追跡から自律空中および地上車両まで、様々な応用において重要な技術である。
応用シナリオは、実行された動作の特性、乱れの有無、環境条件が異なる。
現状の姿勢推定器はこれらの特性に対してよく一般化しないため、個々の動作特性や状況に対してパラメータを調整する必要がある。
本稿では,アプリケーション固有の適応を必要とせず,様々な動作ダイナミクス,環境,サンプリング速度にまたがるロバストな imu ベースの姿勢推定のためのリアルタイムニューラルネットワークである riann を提案する。
2つの公開データセットを手法開発とトレーニングに活用し,3つの異なるテストシナリオでトレーニングされたニューラルネットワークを評価するために,まったく異なるデータセットを4つ追加した。
RIANNは、特定のアプリケーション、同じセンサーハードウェア、または同じサンプリング周波数のデータセットからデータを見たことがなく、同じテストデータセット上でフィルタがチューニングされたとしても、RIANNは少なくとも、最先端の姿勢推定フィルタと同等の性能を示し、いくつかのケースでそれらを上回ります。
RIANNは多くのアプリケーションでプラグイン・アンド・プレイ・ソリューションを実現することが期待されている。
RIANNを公開しました。
関連論文リスト
- NeuralPrefix: A Zero-shot Sensory Data Imputation Plugin [1.8416014644193066]
我々はゼロショット計算の概念を定式化し、事前学習されたモデルのデータ間欠性を扱うための新しいアプローチを提案する。
このフレームワークはNeuralPrefixと呼ばれ、推論中にタスクモデルに先行する生成的ニューラルネットワークコンポーネントである。
我々は,複数の知覚データセットに対するNeuralPrefixの総合評価を行い,その有効性を示す。
論文 参考訳(メタデータ) (2025-02-09T12:47:55Z) - SONNET: Enhancing Time Delay Estimation by Leveraging Simulated Audio [17.811771707446926]
学習に基づく手法は、合成データにもとづいても、新しい実世界のデータに基づいてGCC-PHATを著しく上回り得ることを示す。
トレーニングされたモデルであるSONNETは、リアルタイムに実行可能で、多くの実データアプリケーションのために、最初から新しいデータに取り組んでいます。
論文 参考訳(メタデータ) (2024-11-20T10:23:21Z) - Graph Neural Networks for Virtual Sensing in Complex Systems: Addressing Heterogeneous Temporal Dynamics [8.715570103753697]
複雑なシステムの信頼性と効率的な運用にはリアルタイム状態監視が不可欠である。
本稿では,HTGNN(Heterogeneous Temporal Graph Neural Network)フレームワークを提案する。
HTGNNは多様なセンサーからの信号を明示的にモデル化し、動作条件をモデルアーキテクチャに統合する。
論文 参考訳(メタデータ) (2024-07-26T12:16:53Z) - Physical-Layer Semantic-Aware Network for Zero-Shot Wireless Sensing [74.12670841657038]
デバイスレスワイヤレスセンシングは、幅広い没入型人間機械対話型アプリケーションをサポートする可能性から、近年、大きな関心を集めている。
無線信号におけるデータの均一性と分散センシングにおけるデータプライバシ規制は、広域ネットワークシステムにおける無線センシングの広範な適用を妨げる主要な課題であると考えられている。
そこで本研究では,ラベル付きデータを使わずに,一箇所ないし限られた箇所で構築されたモデルを直接他の場所に転送できるゼロショット無線センシングソリューションを提案する。
論文 参考訳(メタデータ) (2023-12-08T13:50:30Z) - Learning IMM Filter Parameters from Measurements using Gradient Descent [45.335821132209766]
トラック下のターゲットの固有のパラメータは、システムがデプロイされるまで完全に観測不可能である。
最先端のセンサーシステムはますます複雑になり、パラメータの数が自然に増加する。
本稿では,対話型多重モデル (IMM) フィルタのパラメータを計測のみで最適化する。
論文 参考訳(メタデータ) (2023-07-13T08:35:40Z) - DynImp: Dynamic Imputation for Wearable Sensing Data Through Sensory and
Temporal Relatedness [78.98998551326812]
従来の手法では、データの時系列ダイナミクスと、異なるセンサーの特徴の関連性の両方をめったに利用していない、と我々は主張する。
我々はDynImpと呼ばれるモデルを提案し、特徴軸に沿って近接する隣人と異なる時間点の欠如を扱う。
本手法は, 関連センサのマルチモーダル性特性を活かし, 履歴時系列のダイナミックスから学習し, 極端に欠落した状態でデータを再構築することができることを示す。
論文 参考訳(メタデータ) (2022-09-26T21:59:14Z) - MUAD: Multiple Uncertainties for Autonomous Driving benchmark for
multiple uncertainty types and tasks [10.624564056837835]
MUADデータセットは8,500個のリアルな合成画像で構成され、様々な悪天候条件がある。
このデータセットは、モデルパフォーマンスに対するさまざまな不確実性ソースの影響をより正確に評価することを可能にする。
論文 参考訳(メタデータ) (2022-03-02T22:14:12Z) - DAPPER: Label-Free Performance Estimation after Personalization for
Heterogeneous Mobile Sensing [95.18236298557721]
DAPPER(Domain AdaPtation Performance EstimatoR)を提案する。
実世界の6つのベースラインと比較した4つのセンシングデータセットによる評価の結果,DAPPERの精度は39.8%向上した。
論文 参考訳(メタデータ) (2021-11-22T08:49:33Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - TELESTO: A Graph Neural Network Model for Anomaly Classification in
Cloud Services [77.454688257702]
機械学習(ML)と人工知能(AI)はITシステムの運用とメンテナンスに適用される。
1つの方向は、修復自動化を可能にするために、繰り返し発生する異常タイプを認識することである。
与えられたデータの次元変化に不変な手法を提案する。
論文 参考訳(メタデータ) (2021-02-25T14:24:49Z) - Neural Networks Versus Conventional Filters for Inertial-Sensor-based
Attitude Estimation [1.0957528713294873]
慣性測定ユニットは、移動する物体の姿勢を推定するために一般的に使用される。
センサ融合問題の解法として非線形フィルタ法が提案されている。
人工ニューラルネットワークによってこれらの制限が克服できる範囲について検討する。
論文 参考訳(メタデータ) (2020-05-14T11:59:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。