論文の概要: Uncertainty-based Meta-Reinforcement Learning for Robust Radar Tracking
- arxiv url: http://arxiv.org/abs/2210.14532v1
- Date: Wed, 26 Oct 2022 07:48:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 16:01:58.358252
- Title: Uncertainty-based Meta-Reinforcement Learning for Robust Radar Tracking
- Title(参考訳): 不確実性に基づくロバストレーダ追跡のためのメタ強化学習
- Authors: Julius Ott, Lorenzo Servadei, Gianfranco Mauro, Thomas Stadelmayer,
Avik Santra, Robert Wille
- Abstract要約: 本稿では,不確実性に基づくメタ強化学習(Meta-RL)手法を提案する。
その複雑さに関する情報を用いて、提案アルゴリズムはトラッキングの信頼性を指摘することができる。
そこで本研究では,メタRL手法がピーク時の追跡シナリオを16%,ベースラインを35%上回ることを示す。
- 参考スコア(独自算出の注目度): 3.012203489670942
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, Deep Learning (DL) methods often overcome the limitations of
traditional signal processing approaches. Nevertheless, DL methods are barely
applied in real-life applications. This is mainly due to limited robustness and
distributional shift between training and test data. To this end, recent work
has proposed uncertainty mechanisms to increase their reliability. Besides,
meta-learning aims at improving the generalization capability of DL models. By
taking advantage of that, this paper proposes an uncertainty-based
Meta-Reinforcement Learning (Meta-RL) approach with Out-of-Distribution (OOD)
detection. The presented method performs a given task in unseen environments
and provides information about its complexity. This is done by determining
first and second-order statistics on the estimated reward. Using information
about its complexity, the proposed algorithm is able to point out when tracking
is reliable. To evaluate the proposed method, we benchmark it on a
radar-tracking dataset. There, we show that our method outperforms related
Meta-RL approaches on unseen tracking scenarios in peak performance by 16% and
the baseline by 35% while detecting OOD data with an F1-Score of 72%. This
shows that our method is robust to environmental changes and reliably detects
OOD scenarios.
- Abstract(参考訳): 今日では、Deep Learning(DL)メソッドは、従来の信号処理アプローチの限界を克服することが多い。
それでも、DL法は現実の応用にはほとんど適用されない。
これは主に、トレーニングデータとテストデータの間のロバスト性や分散シフトの制限によるものだ。
この目的のために、近年の研究は信頼性を高めるための不確実性メカニズムを提案している。
メタラーニングはDLモデルの一般化能力の向上を目的としている。
そこで本研究では,不確実性に基づくメタ強化学習(Meta-RL)手法を提案する。
提案手法は,未知の環境で与えられたタスクを実行し,その複雑性に関する情報を提供する。
これは、推定報酬について第1および第2次統計量を決定することによって行われる。
その複雑さに関する情報を用いて、提案アルゴリズムはトラッキングの信頼性を指摘することができる。
提案手法を評価するために,レーダ追跡データセットでベンチマークを行う。
そこで,本手法は,f1-scoreの72%でoodデータを検出する際に,ピーク性能が16%,ベースラインが35%の未検出の追跡シナリオにおいて,関連するmeta-rlアプローチよりも優れることを示す。
本手法は環境変化に対して堅牢であり,OODシナリオを確実に検出する。
関連論文リスト
- Mean-AP Guided Reinforced Active Learning for Object Detection [31.304039641225504]
本稿では,オブジェクト検出のための平均APガイド型アクティブラーニングについて紹介する。
MGRALは、予測されたモデル出力変化の概念を深層検知ネットワークの情報性として活用する新しいアプローチである。
提案手法は,物体検出のための強化学習に基づく能動学習における新たなパラダイムを確立し,高い性能を示す。
論文 参考訳(メタデータ) (2023-10-12T14:59:22Z) - Predicted Embedding Power Regression for Large-Scale Out-of-Distribution
Detection [77.1596426383046]
本研究では,学習過程において学習したラベル分布に基づいて,予測されたクラスラベルの確率を計算する手法を開発した。
提案手法は,計算コストの最小化のみで,現在の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-03-07T18:28:39Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Train Hard, Fight Easy: Robust Meta Reinforcement Learning [78.16589993684698]
実世界のアプリケーションにおける強化学習(RL)の大きな課題は、環境、タスク、クライアントの違いである。
標準的なMRL法は、タスクよりも平均的なリターンを最適化するが、リスクや難易度の高いタスクでは悪い結果に悩まされることが多い。
本研究では, MRL の頑健な目標を制御レベルで定義する。
ロバストメタRLアルゴリズム(RoML)を用いてデータ非効率に対処する
論文 参考訳(メタデータ) (2023-01-26T14:54:39Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Data Augmentation through Expert-guided Symmetry Detection to Improve
Performance in Offline Reinforcement Learning [0.0]
マルコフ決定過程(MDP)の動的モデルのオフライン推定は非自明な作業である。
近年の研究では、密度推定法に依存する専門家誘導パイプラインが、決定論的環境において、この構造を効果的に検出できることが示されている。
学習したMDPを解き、実際の環境に最適化されたポリシーを適用すると、前者の結果が性能改善につながることを示す。
論文 参考訳(メタデータ) (2021-12-18T14:32:32Z) - Towards Reducing Labeling Cost in Deep Object Detection [61.010693873330446]
本稿では,検知器の不確実性と頑健性の両方を考慮した,アクティブラーニングのための統一的なフレームワークを提案する。
提案手法は, 確率分布のドリフトを抑えながら, 極めて確実な予測を擬似ラベル化することができる。
論文 参考訳(メタデータ) (2021-06-22T16:53:09Z) - Meta-Learning Reliable Priors in the Function Space [36.869587157481284]
本稿では,F-PACOHと呼ばれるメタ学習フレームワークを紹介し,メタ学習をプロセスとして扱い,関数空間内で直接メタレベル正規化を行う。
これにより、メタラーナーの予測を、不十分なメタトレーニングデータの領域における高い不確実性に向けて直接操縦することができ、よく校正された不確実性推定が得られる。
論文 参考訳(メタデータ) (2021-06-06T18:07:49Z) - Uncertainty Weighted Actor-Critic for Offline Reinforcement Learning [63.53407136812255]
オフライン強化学習は、探索を必要とせずに、事前に収集された静的データセットから効果的なポリシーを学ぶことを約束する。
既存のQラーニングとアクター批判に基づくオフポリティクスRLアルゴリズムは、アウト・オブ・ディストリビューション(OOD)アクションや状態からのブートストラップ時に失敗する。
我々は,OOD状態-動作ペアを検出し,トレーニング目標への貢献度を下げるアルゴリズムであるUncertainty Weighted Actor-Critic (UWAC)を提案する。
論文 参考訳(メタデータ) (2021-05-17T20:16:46Z) - Off-Policy Meta-Reinforcement Learning Based on Feature Embedding Spaces [14.029933823101084]
学習と不確実性評価(ELUE)を埋め込んだ新しいオフポリシーメタRL法を提案する。
ELUEは、埋め込み空間と信念条件ポリシーとQ関数に関する信念モデルを学びます。
ELUEは,メタRLベンチマーク実験により,最先端のメタRL法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-01-06T05:51:38Z) - Generalized Reinforcement Meta Learning for Few-Shot Optimization [3.7675996866306845]
本稿では, 汎用的かつ柔軟な強化学習(RL)に基づくメタラーニングフレームワークを提案する。
我々のフレームワークは簡単にネットワークアーキテクチャ検索に拡張できる。
論文 参考訳(メタデータ) (2020-05-04T03:21:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。