論文の概要: Review of Metrics to Measure the Stability, Robustness and Resilience of
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2203.12048v1
- Date: Tue, 22 Mar 2022 21:15:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 13:46:24.424970
- Title: Review of Metrics to Measure the Stability, Robustness and Resilience of
Reinforcement Learning
- Title(参考訳): 強化学習の安定性・ロバスト性・レジリエンスの測定基準の検討
- Authors: Laura L. Pullum
- Abstract要約: 近年、強化学習は、主に深層強化学習の成功により、大きな関心を集めている。
我々は、ロバスト性、安定性、弾力性を示すまたは測定するために使用される量的および理論的アプローチを分類する。
これは、強化学習に特化した安定性、堅牢性、レジリエンスに関する、初めての包括的なレビューであると考えています。
- 参考スコア(独自算出の注目度): 0.5917654223291071
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reinforcement learning has received significant interest in recent years, due
primarily to the successes of deep reinforcement learning at solving many
challenging tasks such as playing Chess, Go and online computer games. However,
with the increasing focus on reinforcement learning, applications outside of
gaming and simulated environments require understanding the robustness,
stability, and resilience of reinforcement learning methods. To this end, we
conducted a comprehensive literature review to characterize the available
literature on these three behaviors as they pertain to reinforcement learning.
We classify the quantitative and theoretical approaches used to indicate or
measure robustness, stability, and resilience behaviors. In addition, we
identified the action or event to which the quantitative approaches were
attempting to be stable, robust, or resilient. Finally, we provide a decision
tree useful for selecting metrics to quantify the behaviors. We believe that
this is the first comprehensive review of stability, robustness and resilience
specifically geared towards reinforcement learning.
- Abstract(参考訳): 強化学習は近年,チェスや囲碁,オンラインコンピュータゲームなど,多くの課題を解決するための深層強化学習の成功によって,大きな関心を集めている。
しかし、強化学習に焦点が当てられるにつれて、ゲーム以外のアプリケーションやシミュレーション環境は強化学習法の堅牢性、安定性、レジリエンスを理解する必要がある。
そこで本研究では,これら3つの行動について,強化学習に関連する文献を特徴付けるため,包括的な文献レビューを行った。
我々は,ロバスト性,安定性,弾力性を示すために用いられる定量的・理論的アプローチを分類した。
さらに, 定量的アプローチが安定し, 堅牢で, 回復力のある動作や事象についても検討した。
最後に,行動の定量化のためのメトリクス選択に有用な決定木を提供する。
これは、強化学習に特化した安定性、堅牢性、レジリエンスに関する、初めての包括的なレビューであると考えています。
関連論文リスト
- A Bag of Tricks for Few-Shot Class-Incremental Learning [20.95422402702963]
数ショットのクラス増分学習(FSCIL)のためのトリックの袋を提示する。
FSCILは安定性と適応性の両方を必要とし、新しいタスクを学習しながら、以前に学習したタスクの習熟性を維持する。
これらのトリックを,安定性トリック,適応性トリック,トレーニングトリックという3つのカテゴリに分類する。
論文 参考訳(メタデータ) (2024-03-21T13:33:00Z) - Evaluating and Improving Continual Learning in Spoken Language
Understanding [58.723320551761525]
本研究では,連続学習における安定性,可塑性,一般化性に関する統一的な評価手法を提案する。
提案手法を用いることで,SLUモデルのこれらの3つの特性の異なる側面を,様々な知識蒸留の導入によってどのように改善するかを実証する。
論文 参考訳(メタデータ) (2024-02-16T03:30:27Z) - Causal Reinforcement Learning: A Survey [57.368108154871]
強化学習は、不確実性の下でのシーケンシャルな決定問題の解決に不可欠なパラダイムである。
主な障害の1つは、強化学習エージェントが世界に対する根本的な理解を欠いていることである。
因果性は、体系的な方法で知識を形式化できるという点で顕著な利点がある。
論文 参考訳(メタデータ) (2023-07-04T03:00:43Z) - Trustworthy Reinforcement Learning Against Intrinsic Vulnerabilities:
Robustness, Safety, and Generalizability [23.82257896376779]
信頼に足る強化学習アルゴリズムは、現実世界の問題を解決するのに長けるべきである。
本研究の目的は、信頼に値する強化学習の主な視点を概観することである。
論文 参考訳(メタデータ) (2022-09-16T16:10:08Z) - A Review of Uncertainty for Deep Reinforcement Learning [0.0]
不確実性はゲームにおいて、エージェントがゲームをプレイしたり、ゲーム自体で頻繁に発生する。
この研究は、不確実性を意識した深層強化学習において、既存のテクニックを動機づけ、提示する概要を提供する。
論文 参考訳(メタデータ) (2022-08-18T20:42:19Z) - Continual evaluation for lifelong learning: Identifying the stability
gap [35.99653845083381]
我々は、新しいタスクの学習を始める際に、一般的な最先端の手法のセットを忘れることに苦しむことを示す。
興味深いが潜在的に問題となる現象を安定性ギャップと呼ぶ。
我々は,各項目評価を用いた連続評価のためのフレームワークを構築し,最悪の場合のパフォーマンスを定量化するための新しい指標セットを定義する。
論文 参考訳(メタデータ) (2022-05-26T15:56:08Z) - Rethinking Learning Dynamics in RL using Adversarial Networks [79.56118674435844]
本稿では,スキル埋め込み空間を通じてパラメータ化された,密接に関連するスキルの強化学習のための学習機構を提案する。
本研究の主な貢献は、エントロピー規則化政策勾配定式化の助けを借りて、強化学習のための敵の訓練体制を定式化することである。
論文 参考訳(メタデータ) (2022-01-27T19:51:09Z) - Beyond Robustness: Resilience Verification of Tree-Based Classifiers [7.574509994822738]
我々はレジリエンスと呼ばれる新しい尺度を導入し、その検証に焦点をあてる。
従来のロバスト性検証手法とデータ非依存の安定性解析を組み合わせることで、レジリエンスの検証方法について論じる。
以上の結果から, レジリエンス検証は実用上有用であり, 標準木モデルと堅牢木モデルの両方に対して, より信頼性の高いセキュリティ評価を行うことが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-05T23:07:22Z) - Transfer Learning in Deep Reinforcement Learning: A Survey [64.36174156782333]
強化学習は、シーケンシャルな意思決定問題を解決するための学習パラダイムである。
近年、ディープニューラルネットワークの急速な発展により、強化学習の顕著な進歩が見られた。
転校学習は 強化学習が直面する様々な課題に 対処するために生まれました
論文 参考訳(メタデータ) (2020-09-16T18:38:54Z) - Importance Weighted Policy Learning and Adaptation [89.46467771037054]
政治外学習の最近の進歩の上に構築された,概念的にシンプルで,汎用的で,モジュール的な補完的アプローチについて検討する。
このフレームワークは確率論的推論文学のアイデアにインスパイアされ、堅牢な非政治学習と事前の行動を組み合わせる。
提案手法は,メタ強化学習ベースラインと比較して,ホールドアウトタスクにおける競合適応性能を実現し,複雑なスパース・リワードシナリオにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-10T14:16:58Z) - Understanding the Role of Training Regimes in Continual Learning [51.32945003239048]
破滅的な忘れは、ニューラルネットワークのトレーニングに影響を与え、複数のタスクを逐次学習する能力を制限する。
本研究では,タスクの局所的なミニマを拡大するトレーニング体制の形成に及ぼすドロップアウト,学習速度の低下,バッチサイズの影響について検討した。
論文 参考訳(メタデータ) (2020-06-12T06:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。