論文の概要: Distal Explanations for Model-free Explainable Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2001.10284v2
- Date: Sat, 12 Sep 2020 09:46:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 02:15:01.142561
- Title: Distal Explanations for Model-free Explainable Reinforcement Learning
- Title(参考訳): モデルフリーで説明可能な強化学習のための遠心的説明
- Authors: Prashan Madumal, Tim Miller, Liz Sonenberg, Frank Vetere
- Abstract要約: モデルレス強化学習エージェントの遠位説明モデルを導入・評価する。
我々の出発点は、因果モデルがA 可算 B と B が C' を引き起こす確率連鎖を生成できるという観察である。
- 参考スコア(独自算出の注目度): 19.250329276538352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we introduce and evaluate a distal explanation model for
model-free reinforcement learning agents that can generate explanations for
`why' and `why not' questions. Our starting point is the observation that
causal models can generate opportunity chains that take the form of `A enables
B and B causes C'. Using insights from an analysis of 240 explanations
generated in a human-agent experiment, we define a distal explanation model
that can analyse counterfactuals and opportunity chains using decision trees
and causal models. A recurrent neural network is employed to learn opportunity
chains, and decision trees are used to improve the accuracy of task prediction
and the generated counterfactuals. We computationally evaluate the model in 6
reinforcement learning benchmarks using different reinforcement learning
algorithms. From a study with 90 human participants, we show that our distal
explanation model results in improved outcomes over three scenarios compared
with two baseline explanation models.
- Abstract(参考訳): 本稿では,「なぜ」質問や「なぜ」質問に対する説明を生成できるモデルフリー強化学習エージェントの遠位説明モデルを提案し,評価する。
我々の出発点は、因果モデルが『A possible B と B が C を引き起こす』という形式をとる機会連鎖を生成できるという観察である。
ヒト・エージェント実験で発生した240の説明の分析から得られた知見を用いて、決定木と因果モデルを用いて、反事実や機会連鎖を分析する遠位説明モデルを定義する。
機会連鎖を学習するためにリカレントニューラルネットワークを使用し、タスク予測の精度と生成された反事実を改善するために決定木を用いる。
異なる強化学習アルゴリズムを用いて6つの強化学習ベンチマークでモデルを計算的に評価する。
90人の被験者による研究から,遠位説明モデルは2つのベースライン説明モデルと比較して,3つのシナリオで結果が向上することが示された。
関連論文リスト
- CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - Exploring the Trade-off Between Model Performance and Explanation Plausibility of Text Classifiers Using Human Rationales [3.242050660144211]
ホック後説明可能性法は、ますます複雑なNLPモデルを理解するための重要なツールである。
本稿では,人間の判断を説明するテキストアノテーションをテキスト分類モデルに組み込む手法を提案する。
論文 参考訳(メタデータ) (2024-04-03T22:39:33Z) - Explainability for Machine Learning Models: From Data Adaptability to
User Perception [0.8702432681310401]
この論文は、すでにデプロイされた機械学習モデルに対する局所的な説明の生成を探求する。
データとユーザ要件の両方を考慮して、意味のある説明を生み出すための最適な条件を特定することを目的としている。
論文 参考訳(メタデータ) (2024-02-16T18:44:37Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Specify Robust Causal Representation from Mixed Observations [35.387451486213344]
観測から純粋に表現を学習することは、予測モデルに有利な低次元のコンパクトな表現を学習する問題を懸念する。
本研究では,観測データからこのような表現を学習するための学習手法を開発した。
理論的および実験的に、学習された因果表現で訓練されたモデルは、敵の攻撃や分布シフトの下でより堅牢であることを示す。
論文 参考訳(メタデータ) (2023-10-21T02:18:35Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Explanations from Large Language Models Make Small Reasoners Better [61.991772773700006]
提案手法は, 異なる設定において, 微調整ベースラインを連続的に, 著しく向上させることができることを示す。
副次的な利点として、人間の評価は、その予測を正当化するために高品質な説明を生成することができることを示す。
論文 参考訳(メタデータ) (2022-10-13T04:50:02Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。