論文の概要: Explainable Reinforcement Learning for Broad-XAI: A Conceptual Framework
and Survey
- arxiv url: http://arxiv.org/abs/2108.09003v1
- Date: Fri, 20 Aug 2021 05:18:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-23 13:30:39.928035
- Title: Explainable Reinforcement Learning for Broad-XAI: A Conceptual Framework
and Survey
- Title(参考訳): ブロードXAIのための説明可能な強化学習:概念的枠組みと調査
- Authors: Richard Dazeley, Peter Vamplew, Francisco Cruz
- Abstract要約: 強化学習(Reinforcement Learning, RL)法は、ブロードXAIの開発に必要な認知モデルのための潜在的なバックボーンを提供する。
RLは、さまざまなシーケンシャルな意思決定問題の解決に成功している一連のアプローチである。
本稿では,現在のXRL研究を統一し,Broad-XAI開発のバックボーンとしてRLを用いるCausal XRL Framework (CXF) という概念的フレームワークを導入することを目的とする。
- 参考スコア(独自算出の注目度): 0.7366405857677226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Broad Explainable Artificial Intelligence moves away from interpreting
individual decisions based on a single datum and aims to provide integrated
explanations from multiple machine learning algorithms into a coherent
explanation of an agent's behaviour that is aligned to the communication needs
of the explainee. Reinforcement Learning (RL) methods, we propose, provide a
potential backbone for the cognitive model required for the development of
Broad-XAI. RL represents a suite of approaches that have had increasing success
in solving a range of sequential decision-making problems. However, these
algorithms all operate as black-box problem solvers, where they obfuscate their
decision-making policy through a complex array of values and functions.
EXplainable RL (XRL) is relatively recent field of research that aims to
develop techniques to extract concepts from the agent's: perception of the
environment; intrinsic/extrinsic motivations/beliefs; Q-values, goals and
objectives. This paper aims to introduce a conceptual framework, called the
Causal XRL Framework (CXF), that unifies the current XRL research and uses RL
as a backbone to the development of Broad-XAI. Additionally, we recognise that
RL methods have the ability to incorporate a range of technologies to allow
agents to adapt to their environment. CXF is designed for the incorporation of
many standard RL extensions and integrated with external ontologies and
communication facilities so that the agent can answer questions that explain
outcomes and justify its decisions.
- Abstract(参考訳): Broad Explainable Artificial Intelligenceは、単一のダタムに基づいて個々の決定を解釈することから離れ、複数の機械学習アルゴリズムから、説明者のコミュニケーションニーズに合わせたエージェントの振る舞いの一貫性のある説明への統合的な説明を提供することを目指している。
本稿では,Broad-XAIの開発に必要な認知モデルのバックボーンとして,強化学習(RL)手法を提案する。
RLは、さまざまなシーケンシャルな意思決定問題の解決に成功している一連のアプローチである。
しかし、これらのアルゴリズムはすべてブラックボックス問題解決器として動作し、複雑な値と関数の配列を通して意思決定ポリシーを省略する。
説明可能なRL(XRL)は、エージェントから概念を抽出する技術を開発することを目的とした、比較的最近の研究分野である。
本稿では,現在のXRL研究を統合し,Broad-XAI開発のバックボーンとしてRLを用いるCausal XRL Framework(CXF)という概念的フレームワークを導入することを目的とする。
さらに,RL手法には,エージェントが環境に適応できるように,さまざまな技術が組み込まれていることも認識している。
CXFは、多くの標準RL拡張を組み入れ、外部オントロジーや通信設備と統合して、エージェントが結果を説明する質問に答え、決定を正当化できるように設計されている。
関連論文リスト
- Diffusion-Based Offline RL for Improved Decision-Making in Augmented ARC Task [10.046325073900297]
SOLAR(Abstraction and Reasoning)のための拡張オフラインRLデータセットを提案する。
SOLARは、十分な経験データを提供することで、オフラインのRLメソッドの適用を可能にする。
本実験は, 簡単なARCタスクにおけるオフラインRL手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-15T06:48:27Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - IxDRL: A Novel Explainable Deep Reinforcement Learning Toolkit based on
Analyses of Interestingness [0.0]
面白さの分析に基づく新しい枠組みを提案する。
本ツールは,興味深い分析から得られたRLエージェント能力の様々な測定方法を提供する。
我々のフレームワークはエージェント設計者にRLエージェント能力に関する洞察を与えることができることを示す。
論文 参考訳(メタデータ) (2023-07-18T02:43:19Z) - A Survey on Explainable Reinforcement Learning: Concepts, Algorithms,
Challenges [38.70863329476517]
強化学習(Reinforcement Learning, RL)は、インテリジェントエージェントが環境と対話して長期的な目標を達成する、一般的な機械学習パラダイムである。
励ましの結果にもかかわらず、ディープニューラルネットワークベースのバックボーンは、専門家が高いセキュリティと信頼性が不可欠である現実的なシナリオにおいて、訓練されたエージェントを信頼し、採用することを妨げるブラックボックスとして広く見なされている。
この問題を緩和するために、本質的な解釈可能性やポストホックな説明可能性を構築することにより、知的エージェントの内部動作に光を放つための大量の文献が提案されている。
論文 参考訳(メタデータ) (2022-11-12T13:52:06Z) - Collective eXplainable AI: Explaining Cooperative Strategies and Agent
Contribution in Multiagent Reinforcement Learning with Shapley Values [68.8204255655161]
本研究は,シェープリー値を用いたマルチエージェントRLにおける協調戦略を説明するための新しい手法を提案する。
結果は、差別的でない意思決定、倫理的かつ責任あるAI由来の意思決定、公正な制約の下での政策決定に影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2021-10-04T10:28:57Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - SUNRISE: A Simple Unified Framework for Ensemble Learning in Deep
Reinforcement Learning [102.78958681141577]
SUNRISEは単純な統一アンサンブル法であり、様々な非政治的な深層強化学習アルゴリズムと互換性がある。
SUNRISEは, (a) アンサンブルに基づく重み付きベルマンバックアップと, (b) 最上位の自信境界を用いて行動を選択する推論手法を統合し, 効率的な探索を行う。
論文 参考訳(メタデータ) (2020-07-09T17:08:44Z) - Learning What to Defer for Maximum Independent Sets [84.00112106334655]
本稿では,各段階における解の要素的決定を学習することにより,エージェントが適応的に段階数を縮小あるいは拡張する,新たなDRL方式を提案する。
提案手法を最大独立集合(MIS)問題に適用し、現状のDRL方式よりも大幅に改善したことを示す。
論文 参考訳(メタデータ) (2020-06-17T02:19:31Z) - Explainable Reinforcement Learning: A Survey [0.0]
説明可能な人工知能(XAI)はここ数年で勢いを増している。
XAIモデルには1つの有害な特徴がある。
本調査は、説明可能な強化学習(XRL)手法の概要を提供することで、このギャップに対処しようとするものである。
論文 参考訳(メタデータ) (2020-05-13T10:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。