論文の概要: A Survey of Explainable Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2202.08434v1
- Date: Thu, 17 Feb 2022 03:45:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-19 02:10:26.731693
- Title: A Survey of Explainable Reinforcement Learning
- Title(参考訳): 説明可能な強化学習に関する調査
- Authors: Stephanie Milani and Nicholay Topin and Manuela Veloso and Fei Fang
- Abstract要約: 説明可能な強化学習(XRL)は、説明可能な機械学習の新たなサブフィールドである。
XRLの目的は、シーケンシャルな意思決定設定において、学習エージェントの意思決定プロセスを解明することである。
本稿では,RL設定を優先するXRL文献を整理するための新しい分類法を提案する。
- 参考スコア(独自算出の注目度): 45.883015714070595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable reinforcement learning (XRL) is an emerging subfield of
explainable machine learning that has attracted considerable attention in
recent years. The goal of XRL is to elucidate the decision-making process of
learning agents in sequential decision-making settings. In this survey, we
propose a novel taxonomy for organizing the XRL literature that prioritizes the
RL setting. We overview techniques according to this taxonomy. We point out
gaps in the literature, which we use to motivate and outline a roadmap for
future work.
- Abstract(参考訳): 説明可能な強化学習(XRL)は説明可能な機械学習の新たなサブフィールドであり,近年注目されている。
xrlの目標は、学習エージェントの逐次意思決定設定における意思決定過程を明らかにすることである。
本稿では,RL設定を優先するXRL文献を整理するための新しい分類法を提案する。
私たちはこの分類法に従ってテクニックを概説する。
将来の仕事のロードマップをモチベーションにし、概説するために使用する文献のギャップを指摘します。
関連論文リスト
- Semantic Role Labeling: A Systematical Survey [43.51170121441664]
セマンティック・ロール・ラベリング(Semantic Role labeling, SRL)は、テキスト中のセマンティック・ロールを理解することを目的とした自然言語処理(NLP)タスクである。
現在、この分野を徹底的に整理し、合成する総合的な調査が欠落している。
本稿では,過去20年間のSRL研究の軌跡を概観する。
論文 参考訳(メタデータ) (2025-02-09T12:45:49Z) - Continual Zero-Shot Learning through Semantically Guided Generative
Random Walks [56.65465792750822]
生成モデルを利用して、学習中に見えない情報が提供されない連続ゼロショット学習の課題に対処する。
本稿では,新しい意味誘導型生成ランダムウォーク(GRW)損失を用いた学習アルゴリズムを提案する。
提案アルゴリズムは,AWA1,AWA2,CUB,SUNデータセットの最先端性能を達成し,既存のCZSL手法を3~7%上回る結果を得た。
論文 参考訳(メタデータ) (2023-08-23T18:10:12Z) - What Matters in Reinforcement Learning for Tractography [12.940129711489005]
深部強化学習(RL)は,手作業による基準流路の整備を行なわずに,白質の構造を再構築するためのトラクトグラフィー法と訓練薬を学習するために提案されている。
RLアルゴリズムの選択,シード戦略,入力信号と報酬関数など,提案するフレームワークのさまざまなコンポーネントを徹底的に検討し,その影響について光を当てる。
本稿では,RLアルゴリズムの選択,エージェントへの入力,報酬関数などに関する一連の勧告を提案する。
論文 参考訳(メタデータ) (2023-05-15T22:01:48Z) - A Survey of Meta-Reinforcement Learning [69.76165430793571]
我々は,メタRLと呼ばれるプロセスにおいて,機械学習問題自体として,より優れたRLアルゴリズムを開発した。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,高レベルでメタRL研究をクラスタ化する方法について議論する。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程について,オープンな問題を提示することによって,結論を下す。
論文 参考訳(メタデータ) (2023-01-19T12:01:41Z) - A Survey on Explainable Reinforcement Learning: Concepts, Algorithms,
Challenges [38.70863329476517]
強化学習(Reinforcement Learning, RL)は、インテリジェントエージェントが環境と対話して長期的な目標を達成する、一般的な機械学習パラダイムである。
励ましの結果にもかかわらず、ディープニューラルネットワークベースのバックボーンは、専門家が高いセキュリティと信頼性が不可欠である現実的なシナリオにおいて、訓練されたエージェントを信頼し、採用することを妨げるブラックボックスとして広く見なされている。
この問題を緩和するために、本質的な解釈可能性やポストホックな説明可能性を構築することにより、知的エージェントの内部動作に光を放つための大量の文献が提案されている。
論文 参考訳(メタデータ) (2022-11-12T13:52:06Z) - RvS: What is Essential for Offline RL via Supervised Learning? [77.91045677562802]
近年の研究では、時間差(TD)のない教師あり学習だけでオフラインRLに極めて効果的であることが示されている。
あらゆる環境スイートにおいて、2層フィードフォワードによる可能性の最大化は競争力がある。
彼らはまた、ランダムデータに対して比較的弱い既存のRvS法の限界を探索する。
論文 参考訳(メタデータ) (2021-12-20T18:55:16Z) - A Survey of Label-noise Representation Learning: Past, Present and
Future [172.28865582415628]
Label-Noise Representation Learning (LNRL) 法は、ノイズのあるラベルでディープモデルを堅牢に訓練することができる。
LNRL法は、インスタンス依存のLNRL、敵のLNRL、新しいデータセットの3つの方向に分けられる。
我々は,LNRLを超えて,特徴ノイズ,優先ノイズ,ドメインノイズ,類似ノイズ,グラフノイズ,実演ノイズなどの潜在方向を想定する。
論文 参考訳(メタデータ) (2020-11-09T13:16:02Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Explainable Reinforcement Learning: A Survey [0.0]
説明可能な人工知能(XAI)はここ数年で勢いを増している。
XAIモデルには1つの有害な特徴がある。
本調査は、説明可能な強化学習(XRL)手法の概要を提供することで、このギャップに対処しようとするものである。
論文 参考訳(メタデータ) (2020-05-13T10:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。