論文の概要: Reinforcement Learning for Orientation Estimation Using Inertial Sensors
with Performance Guarantee
- arxiv url: http://arxiv.org/abs/2103.02357v1
- Date: Wed, 3 Mar 2021 12:20:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-06 18:38:17.541382
- Title: Reinforcement Learning for Orientation Estimation Using Inertial Sensors
with Performance Guarantee
- Title(参考訳): 性能保証型慣性センサによる方位推定のための強化学習
- Authors: Liang Hu, Yujie Tang, Zhipeng Zhou and Wei Pan
- Abstract要約: 本稿では、慣性センサと磁気センサを組み合わせた方向推定のための深部強化学習(DRL)アルゴリズムを提案する。
制御理論におけるリャプノフ法は、方向推定誤差の収束を証明するために用いられる。
私たちの知る限りでは、これは推定誤差境界保証を備えた最初のDRLベースのオリエンテーション推定方法です。
- 参考スコア(独自算出の注目度): 10.659633039089458
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a deep reinforcement learning (DRL) algorithm for
orientation estimation using inertial sensors combined with magnetometer. The
Lyapunov method in control theory is employed to prove the convergence of
orientation estimation errors. Based on the theoretical results, the estimator
gains and a Lyapunov function are parametrized by deep neural networks and
learned from samples. The DRL estimator is compared with three well-known
orientation estimation methods on both numerical simulations and real datasets
collected from commercially available sensors. The results show that the
proposed algorithm is superior for arbitrary estimation initialization and can
adapt to very large angular velocities for which other algorithms can be hardly
applicable. To the best of our knowledge, this is the first DRL-based
orientation estimation method with estimation error boundedness guarantee.
- Abstract(参考訳): 本稿では、慣性センサと磁気センサを組み合わせた方向推定のための深部強化学習(DRL)アルゴリズムを提案する。
制御理論におけるリャプノフ法は、方向推定誤差の収束を証明するために用いられる。
理論結果に基づき、推定値ゲインとリアプノフ関数はディープニューラルネットワークによってパラメータ化され、サンプルから学習される。
DRL推定器は、市販センサから収集した数値シミュレーションと実データの両方において、よく知られた3つの方向推定手法と比較される。
その結果,提案アルゴリズムは任意の推定初期化に優れ,他のアルゴリズムでは適用できない非常に大きな角速度に適応できることがわかった。
私たちの知る限りでは、これは推定誤差境界保証を備えた最初のDRLベースのオリエンテーション推定方法です。
関連論文リスト
- Unrolled denoising networks provably learn optimal Bayesian inference [54.79172096306631]
我々は、近似メッセージパッシング(AMP)のアンロールに基づくニューラルネットワークの最初の厳密な学習保証を証明した。
圧縮センシングでは、製品から引き出されたデータに基づいてトレーニングを行うと、ネットワークの層がベイズAMPで使用されるのと同じデノイザーに収束することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:56:16Z) - Data-Driven Target Localization: Benchmarking Gradient Descent Using the Cramer-Rao Bound [0.2796197251957244]
レーダシステムでは、方位と速度推定を用いた正確な目標位置推定が最重要である。
従来の非バイアス推定法は勾配降下アルゴリズムを用いてクラマーラオ境界の理論限界に達した。
データ駆動型ニューラルネットワークモデルは従来の手法よりも優れており、目標方位の精度と速度推定が向上していることを示す。
論文 参考訳(メタデータ) (2024-01-20T09:26:08Z) - Large-Scale OD Matrix Estimation with A Deep Learning Method [70.78575952309023]
提案手法は,ディープラーニングと数値最適化アルゴリズムを統合し,行列構造を推論し,数値最適化を導出する。
大規模合成データセットを用いて,提案手法の優れた一般化性能を実証するために実験を行った。
論文 参考訳(メタデータ) (2023-10-09T14:30:06Z) - Estimating Koopman operators with sketching to provably learn large
scale dynamical systems [37.18243295790146]
クープマン作用素の理論は、複雑な力学系を予測・解析するために非パラメトリック機械学習アルゴリズムを展開できる。
ランダムプロジェクションを用いた異なるカーネルベースのクープマン作用素推定器の効率を向上する。
統計的学習率と計算効率のトレードオフを鋭く評価する非誤り境界を確立する。
論文 参考訳(メタデータ) (2023-06-07T15:30:03Z) - Provable Reward-Agnostic Preference-Based Reinforcement Learning [61.39541986848391]
PbRL(Preference-based Reinforcement Learning)は、RLエージェントが、軌道上のペアワイドな嗜好に基づくフィードバックを用いてタスクを最適化することを学ぶパラダイムである。
本稿では,隠れた報酬関数の正確な学習を可能にする探索軌道を求める理論的報酬非依存PbRLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:00:09Z) - Variational Linearized Laplace Approximation for Bayesian Deep Learning [11.22428369342346]
変分スパースガウス過程(GP)を用いた線形ラプラス近似(LLA)の近似法を提案する。
本手法はGPの2つのRKHSの定式化に基づいており、予測平均として元のDNNの出力を保持する。
効率のよい最適化が可能で、結果としてトレーニングデータセットのサイズのサブ線形トレーニング時間が短縮される。
論文 参考訳(メタデータ) (2023-02-24T10:32:30Z) - Validation Diagnostics for SBI algorithms based on Normalizing Flows [55.41644538483948]
本研究は,NFに基づく多次元条件(後)密度推定器の検証診断を容易にすることを提案する。
また、局所的な一貫性の結果に基づいた理論的保証も提供する。
この作業は、より良い特定モデルの設計を支援したり、新しいSBIアルゴリズムの開発を促進するのに役立つだろう。
論文 参考訳(メタデータ) (2022-11-17T15:48:06Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Learning Sampling Policy for Faster Derivative Free Optimization [100.27518340593284]
ランダムサンプリングではなく,ZO最適化における摂動を生成するためのサンプリングポリシを学習する,新たな強化学習ベースのZOアルゴリズムを提案する。
その結果,ZO-RLアルゴリズムはサンプリングポリシを学習することでZO勾配の分散を効果的に低減し,既存のZOアルゴリズムよりも高速に収束できることが示唆された。
論文 参考訳(メタデータ) (2021-04-09T14:50:59Z) - Unbiased Gradient Estimation for Distributionally Robust Learning [2.1777837784979277]
分散的に堅牢な学習(DRL)に基づく新しいアプローチを検討し、内部問題に勾配降下を適用します。
本アルゴリズムはマルチレベルモンテカルロランダム化により勾配勾配を効率的に推定する。
論文 参考訳(メタデータ) (2020-12-22T21:35:03Z) - Tune smarter not harder: A principled approach to tuning learning rates
for shallow nets [13.203765985718201]
浅いフィードフォワードニューラルネットワークに対して,学習率を選択するための原則的アプローチを提案する。
シミュレーションにより,提案手法が既存のチューニング手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2020-03-22T09:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。