論文の概要: Explainability in Deep Reinforcement Learning, a Review into Current
Methods and Applications
- arxiv url: http://arxiv.org/abs/2207.01911v1
- Date: Tue, 5 Jul 2022 09:43:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 00:38:29.900243
- Title: Explainability in Deep Reinforcement Learning, a Review into Current
Methods and Applications
- Title(参考訳): 深層強化学習における説明可能性の現状と応用
- Authors: Thomas Hickling, Abdelhafid Zenati, Nabil Aouf and Phillippa Spencer
- Abstract要約: 深層強化学習スキームの使用は、2015年に初めて導入されて以来、劇的に増加している。
このレビューでは、どのメソッドが使われているか、どのアプリケーションが使われているかを調べます。
- 参考スコア(独自算出の注目度): 5.849736173068868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of Deep Reinforcement Learning (DRL) schemes has increased
dramatically since their first introduction in 2015. Though uses in many
different applications are being found they still have a problem with the lack
of interpretability. This has bread a lack of understanding and trust in the
use of DRL solutions from researchers and the general public. To solve this
problem the field of explainable artificial intelligence (XAI) has emerged.
This is a variety of different methods that look to open the DRL black boxes,
they range from the use of interpretable symbolic decision trees to numerical
methods like Shapley Values. This review looks at which methods are being used
and what applications they are being used. This is done to identify which
models are the best suited to each application or if a method is being
underutilised.
- Abstract(参考訳): Deep Reinforcement Learning (DRL) スキームの使用は、2015年に初めて導入されて以来、劇的に増加している。
多くの異なるアプリケーションで使われているが、解釈可能性の欠如にはまだ問題がある。
これは研究者や一般大衆からのDRLソリューションの使用に対する理解と信頼の欠如を膨らませている。
この問題を解決するために、説明可能な人工知能(XAI)の分野が登場した。
これはDRLブラックボックスを開くための様々な方法であり、解釈可能なシンボル決定木の使用からShapley Valuesのような数値メソッドまで様々である。
このレビューでは、どのメソッドが使われているか、どのアプリケーションが使われているかを調べます。
これは、どのモデルが各アプリケーションに最も適しているか、またはメソッドが使われていないかを特定するために行われる。
関連論文リスト
- Learning Diverse Policies with Soft Self-Generated Guidance [2.9602904918952695]
非ゼロ報酬がほとんど得られないため、スパースと偽りの報酬による強化学習は困難である。
本稿では,より高速で効率的なオンラインRLを実現するために,多種多様な過去の軌跡を利用する手法を開発した。
論文 参考訳(メタデータ) (2024-02-07T02:53:50Z) - Pretty darn good control: when are approximate solutions better than
approximate models [0.0]
DRLアルゴリズムは,漁業における非線形3変数モデルにおける解の近似に成功していることを示す。
DRLで得られた政策は, 一定の死亡率の政策よりも収益性が高く, 持続性も高いことを示す。
論文 参考訳(メタデータ) (2023-08-25T19:58:17Z) - Improving and Benchmarking Offline Reinforcement Learning Algorithms [87.67996706673674]
この作業は、低レベルの選択とデータセットによって引き起こされるギャップを埋めることを目的としている。
3つの代表アルゴリズムを用いて20の実装選択を実証的に検討する。
CRR+とCQL+の2つの変種がD4RL上で新たな最先端を実現している。
論文 参考訳(メタデータ) (2023-06-01T17:58:46Z) - Verifying Learning-Based Robotic Navigation Systems [61.01217374879221]
有効モデル選択に現代検証エンジンをどのように利用できるかを示す。
具体的には、検証を使用して、最適下行動を示す可能性のあるポリシーを検出し、除外する。
我々の研究は、現実世界のロボットにおける準最適DRLポリシーを認識するための検証バックエンドの使用を初めて実証したものである。
論文 参考訳(メタデータ) (2022-05-26T17:56:43Z) - Explainable AI via Learning to Optimize [2.8010955192967852]
機械学習(ML)では非解読可能なブラックボックスが一般的だが、アプリケーションは説明可能な人工知能(XAI)を必要としている。
この作業は、事前の知識を符号化し、信頼できない推論をフラグ付けしなければならない状況において、XAIのための具体的なツールを提供する。
論文 参考訳(メタデータ) (2022-04-29T15:57:03Z) - Robust Predictable Control [149.71263296079388]
提案手法は,従来の手法よりもはるかに厳密な圧縮を実現し,標準的な情報ボトルネックよりも最大5倍高い報酬が得られることを示す。
また,本手法はより堅牢で,新しいタスクをより一般化したポリシーを学習することを示す。
論文 参考訳(メタデータ) (2021-09-07T17:29:34Z) - DA-DGCEx: Ensuring Validity of Deep Guided Counterfactual Explanations
With Distribution-Aware Autoencoder Loss [0.0]
ディープラーニングモデルは、解釈可能性の欠如により、しばしばブラックボックスと見なされる。
本稿では,DA-DGCEx(Deep Guided Counterfactual Explanations)について述べる。
DGCExのコスト関数に、分散の反ファクトなインスタンスからペナルティを課す用語を追加する。
論文 参考訳(メタデータ) (2021-04-19T05:44:18Z) - Are Gradient-based Saliency Maps Useful in Deep Reinforcement Learning? [4.254099382808598]
Deep Reinforcement Learning (DRL)は、古典的なReinforcement LearningアルゴリズムとDeep Neural Networksを接続する。
DRLの問題は、CNNがブラックボックスであり、エージェントの意思決定プロセスを理解することは困難である。
この研究は、画像分類の分野からDeep Reinforcement Learningの分野まで、よく知られた視覚化手法をいくつかもたらす。
論文 参考訳(メタデータ) (2020-12-02T15:38:36Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Discovering Reinforcement Learning Algorithms [53.72358280495428]
強化学習アルゴリズムは、いくつかのルールの1つに従ってエージェントのパラメータを更新する。
本稿では,更新ルール全体を検出するメタラーニング手法を提案する。
これには、一連の環境と対話することで、"何を予測するか"(例えば、値関数)と"どのように学習するか"の両方が含まれている。
論文 参考訳(メタデータ) (2020-07-17T07:38:39Z) - DisCor: Corrective Feedback in Reinforcement Learning via Distribution
Correction [96.90215318875859]
ブートストラップに基づくQ-ラーニングアルゴリズムは必ずしも修正フィードバックの恩恵を受けないことを示す。
本稿では,この最適分布に対する近似を計算し,トレーニングに使用する遷移の重み付けに使用する新しいアルゴリズムであるDisCorを提案する。
論文 参考訳(メタデータ) (2020-03-16T16:18:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。