論文の概要: Experiential Explanations for Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2210.04723v1
- Date: Mon, 10 Oct 2022 14:27:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 18:58:46.655101
- Title: Experiential Explanations for Reinforcement Learning
- Title(参考訳): 強化学習のための経験的説明
- Authors: Amal Alabdulkarim, Mark O. Riedl
- Abstract要約: 強化学習アプローチは、ロボティクスやヘルスケアなど、さまざまな重要な分野において、ますます人気が高まっている。
RLエージェントの振る舞いを説明する上での課題の1つは、将来予想される報酬を予測することを学ぶとき、エージェントは文脈情報を捨てることである。
本稿では,局所的対実的説明を生成するための実験説明手法を提案する。
- 参考スコア(独自算出の注目度): 11.418619048404121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement Learning (RL) approaches are becoming increasingly popular in
various key disciplines, including robotics and healthcare. However, many of
these systems are complex and non-interpretable, making it challenging for
non-AI experts to understand or intervene. One of the challenges of explaining
RL agent behavior is that, when learning to predict future expected reward,
agents discard contextual information about their experiences when training in
an environment and rely solely on expected utility. We propose a technique,
Experiential Explanations, for generating local counterfactual explanations
that can answer users' why-not questions by explaining qualitatively the
effects of the various environmental rewards on the agent's behavior. We
achieve this by training additional modules alongside the policy. These models,
called influence predictors, model how different reward sources influence the
agent's policy, thus restoring lost contextual information about how the policy
reflects the environment. To generate explanations, we use these models in
addition to the policy to contrast between the agent's intended behavior
trajectory and a counterfactual trajectory suggested by the user.
- Abstract(参考訳): 強化学習(rl)アプローチは、ロボティクスやヘルスケアなど、さまざまな重要な分野で人気が高まっている。
しかし、これらのシステムの多くは複雑で解釈不能であり、非aiの専門家にとって理解や介入が困難である。
RLエージェントの動作を説明する上での課題の1つは、将来の期待される報酬を予測することを学ぶとき、エージェントは環境におけるトレーニング時の経験に関するコンテキスト情報を破棄し、期待されるユーティリティのみに依存することである。
多様な環境報酬がエージェントの行動に及ぼす影響を定性的に説明することにより,ユーザの疑問に答える局所的な反事実的説明を生成する手法である経験的説明を提案する。
ポリシーに沿って追加モジュールをトレーニングすることで、これを実現する。
影響予測モデルと呼ばれるこれらのモデルは、異なる報酬源がエージェントのポリシーにどのように影響するかをモデル化し、ポリシーが環境をどのように反映するかに関する失われたコンテキスト情報を復元する。
そこで本研究では,エージェントの意図する行動軌跡と,ユーザの提案する反事実軌跡とを対比するために,これらのモデルを用いた。
関連論文リスト
- Semifactual Explanations for Reinforcement Learning [1.5320737596132754]
強化学習(Reinforcement Learning、RL)は、エージェントが試行錯誤を通じて環境から学習する学習パラダイムである。
ディープ強化学習(DRL)アルゴリズムは、ニューラルネットワークを使用してエージェントのポリシーを表現し、その決定を解釈しにくくする。
DRLエージェントの動作を説明するには,ユーザの信頼を向上し,エンゲージメントを高め,実際のタスクとの統合を容易にする必要がある。
論文 参考訳(メタデータ) (2024-09-09T08:37:47Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - GANterfactual-RL: Understanding Reinforcement Learning Agents'
Strategies through Visual Counterfactual Explanations [0.7874708385247353]
本稿では,RLエージェントの反実的説明を生成する手法を提案する。
本手法は完全にモデルに依存しないので,いくつかの計算量において,従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-02-24T15:29:43Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Redefining Counterfactual Explanations for Reinforcement Learning:
Overview, Challenges and Opportunities [2.0341936392563063]
AIのほとんどの説明方法は、開発者とエキスパートユーザーに焦点を当てている。
ブラックボックスモデルの出力が変更されるための入力で何が変更されるのかについて、カウンターファクトな説明がユーザにアドバイスします。
カウンターファクトはユーザフレンドリで、AIシステムから望ましいアウトプットを達成するための実行可能なアドバイスを提供する。
論文 参考訳(メタデータ) (2022-10-21T09:50:53Z) - Tell me why! -- Explanations support learning of relational and causal
structure [24.434551113103105]
説明は人間の学習において重要な役割を担い、特にAIにとって大きな課題が残る分野においてである。
我々は、強化学習エージェントが説明の恩恵を受ける可能性があることを示す。
我々の結果は、説明からの学習が強力な原則であり、より堅牢で一般的な機械学習システムのトレーニングに有望な道筋を提供することを示唆している。
論文 参考訳(メタデータ) (2021-12-07T15:09:06Z) - Information Directed Reward Learning for Reinforcement Learning [64.33774245655401]
我々は、標準rlアルゴリズムが可能な限り少数の専門家クエリで高い期待値を達成することができる報酬関数のモデルを学ぶ。
特定のタイプのクエリ用に設計された以前のアクティブな報酬学習方法とは対照的に、IDRLは自然に異なるクエリタイプに対応します。
我々は,複数の環境における広範囲な評価と,異なるタイプのクエリでこの結果を支持する。
論文 参考訳(メタデータ) (2021-02-24T18:46:42Z) - Counterfactual State Explanations for Reinforcement Learning Agents via
Generative Deep Learning [27.67522513615264]
我々は,Atariのような視覚入力環境で機能する深層強化学習(RL)エージェントの対実的説明の作成に焦点をあてる。
生成的深層学習に基づく対実的説明に対する新しい例に基づくアプローチである、対実的状態説明を導入する。
以上の結果から,非専門家がより効果的に欠陥のあるRLエージェントを識別できるように,現実のゲームイメージに十分忠実な反ファクト状態説明が可能であることが示唆された。
論文 参考訳(メタデータ) (2021-01-29T07:43:41Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Learning "What-if" Explanations for Sequential Decision-Making [92.8311073739295]
実世界の意思決定の解釈可能なパラメータ化を実証行動に基づいて構築することが不可欠である。
そこで我々は,「何」の結果に対する嗜好の観点から,報酬関数をモデル化し,専門家による意思決定の学習的説明を提案する。
本研究は,行動の正確かつ解釈可能な記述を回復する上で,実効的逆強化学習手法であるバッチの有効性を強調した。
論文 参考訳(メタデータ) (2020-07-02T14:24:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。