論文の概要: Towards Explainable Goal Recognition Using Weight of Evidence (WoE): A Human-Centered Approach
- arxiv url: http://arxiv.org/abs/2409.11675v1
- Date: Wed, 18 Sep 2024 03:30:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 19:19:53.385649
- Title: Towards Explainable Goal Recognition Using Weight of Evidence (WoE): A Human-Centered Approach
- Title(参考訳): ウェイト・オブ・エビデンス(WoE)を用いた説明可能なゴール認識に向けて : 人間中心アプローチ
- Authors: Abeer Alshehri, Amal Abdulrahman, Hajar Alamri, Tim Miller, Mor Vered,
- Abstract要約: ゴール認識(GR)は、一連の観察からエージェントの観測されていないゴールを推測することを含む。
伝統的にGRは「最良の説明への推論」や誘拐によって対処されてきた。
本稿では,人間行動説明の基礎となる理論的枠組みと認知過程を基礎とした,GRエージェントのための説明可能なモデルの導入と評価を行う。
- 参考スコア(独自算出の注目度): 5.174712539403376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Goal recognition (GR) involves inferring an agent's unobserved goal from a sequence of observations. This is a critical problem in AI with diverse applications. Traditionally, GR has been addressed using 'inference to the best explanation' or abduction, where hypotheses about the agent's goals are generated as the most plausible explanations for observed behavior. Alternatively, some approaches enhance interpretability by ensuring that an agent's behavior aligns with an observer's expectations or by making the reasoning behind decisions more transparent. In this work, we tackle a different challenge: explaining the GR process in a way that is comprehensible to humans. We introduce and evaluate an explainable model for goal recognition (GR) agents, grounded in the theoretical framework and cognitive processes underlying human behavior explanation. Drawing on insights from two human-agent studies, we propose a conceptual framework for human-centered explanations of GR. Using this framework, we develop the eXplainable Goal Recognition (XGR) model, which generates explanations for both why and why not questions. We evaluate the model computationally across eight GR benchmarks and through three user studies. The first study assesses the efficiency of generating human-like explanations within the Sokoban game domain, the second examines perceived explainability in the same domain, and the third evaluates the model's effectiveness in aiding decision-making in illegal fishing detection. Results demonstrate that the XGR model significantly enhances user understanding, trust, and decision-making compared to baseline models, underscoring its potential to improve human-agent collaboration.
- Abstract(参考訳): ゴール認識(GR)は、一連の観察からエージェントの観測されていないゴールを推測することを含む。
これは、多様なアプリケーションを持つAIにおいて重要な問題である。
伝統的に、GRは「最良の説明への推論」または「誘拐」を用いて対処され、エージェントの目的に関する仮説が観察された行動の最も妥当な説明として生成される。
あるいは、エージェントの振る舞いがオブザーバーの期待に沿うことを保証するか、あるいは意思決定の背後にある推論をより透明にすることで、解釈可能性を高めるアプローチもある。
この研究では、人間にとって理解しやすい方法でGRプロセスを説明するという、別の課題に取り組みます。
本稿では,人間行動説明の基礎となる理論的枠組みと認知過程を基礎とした,GRエージェントのための説明可能なモデルの導入と評価を行う。
本研究では,2つの人間エージェント研究から得られた知見をもとに,GRの人間中心的説明のための概念的枠組みを提案する。
このフレームワークを用いてeXplainable Goal Recognition(XGR)モデルを構築し,なぜ疑問が持たないのかを説明する。
8つのGRベンチマークと3つのユーザスタディを通じて,このモデルを計算学的に評価した。
第1報では,ソコバンゲーム領域内での人間的な説明の効率を評価するとともに,第2報では同一領域における認知的説明可能性について検討し,第3報では違法漁獲検知における意思決定支援におけるモデルの有効性について検討した。
その結果、XGRモデルはベースラインモデルに比べてユーザ理解、信頼、意思決定を著しく向上させ、人間とエージェントのコラボレーションを改善する可能性を示している。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Understanding Your Agent: Leveraging Large Language Models for Behavior
Explanation [7.647395374489533]
本研究では,状態や行動の観察のみに基づいて,エージェントの行動に関する自然言語説明を生成する手法を提案する。
提案手法は,人間ドメインの専門家が作成したものと同じくらい役立つ説明を生成する。
論文 参考訳(メタデータ) (2023-11-29T20:16:23Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Explainable Goal Recognition: A Framework Based on Weight of Evidence [9.356870107137093]
本稿では,eXplainable Goal Recognition (XGR)モデルの導入と評価を行い,WoE(Weight of Evidence)フレームワークを用いて目標認識問題を説明する。
私たちのモデルは、理由とそうでない理由に答える人間中心の説明を提供します。
人間の行動研究を用いて,人間のアノテータから基礎的真理を得ることにより,XGRモデルが人間のような説明をうまく生成できることを示す。
論文 参考訳(メタデータ) (2023-03-09T23:27:08Z) - Machine Explanations and Human Understanding [31.047297225560566]
説明は、機械学習モデルの人間の理解を改善すると仮定される。
実験的な研究で 混ざった結果も 否定的な結果も出ています
人間の直観が人間の理解にどのような役割を果たしているかを示す。
論文 参考訳(メタデータ) (2022-02-08T19:00:38Z) - Local Explanation of Dialogue Response Generation [77.68077106724522]
反応生成の局所的説明(LERG)は、生成モデルの推論過程に関する洞察を得るために提案される。
LERGは、シーケンス予測を人間の応答の不確実性推定とみなし、入力を摂動させ、人間の応答に対する確実性の変化を計算することによって説明を作成する。
提案手法は, 提案手法を改良し, 提案手法の4.4~12.8%を改良した。
論文 参考訳(メタデータ) (2021-06-11T17:58:36Z) - Learning Domain Invariant Representations for Generalizable Person
Re-Identification [71.35292121563491]
ReID(Generalizable person Re-Identification)は、最近のコンピュータビジョンコミュニティで注目を集めている。
DIR-ReID(Domain Invariant Representations for Generalizable Person Re-Identification)という新しい一般化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T18:59:48Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。