論文の概要: Explainable Goal Recognition: A Framework Based on Weight of Evidence
- arxiv url: http://arxiv.org/abs/2303.05622v1
- Date: Thu, 9 Mar 2023 23:27:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 16:46:44.739908
- Title: Explainable Goal Recognition: A Framework Based on Weight of Evidence
- Title(参考訳): 説明可能な目標認識:証拠の重みに基づく枠組み
- Authors: Abeer Alshehri, Tim Miller, Mor Vered
- Abstract要約: 本稿では,eXplainable Goal Recognition (XGR)モデルの導入と評価を行い,WoE(Weight of Evidence)フレームワークを用いて目標認識問題を説明する。
私たちのモデルは、理由とそうでない理由に答える人間中心の説明を提供します。
人間の行動研究を用いて,人間のアノテータから基礎的真理を得ることにより,XGRモデルが人間のような説明をうまく生成できることを示す。
- 参考スコア(独自算出の注目度): 9.356870107137093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce and evaluate an eXplainable Goal Recognition (XGR) model that
uses the Weight of Evidence (WoE) framework to explain goal recognition
problems. Our model provides human-centered explanations that answer why? and
why not? questions. We computationally evaluate the performance of our system
over eight different domains. Using a human behavioral study to obtain the
ground truth from human annotators, we further show that the XGR model can
successfully generate human-like explanations. We then report on a study with
60 participants who observe agents playing Sokoban game and then receive
explanations of the goal recognition output. We investigate participants'
understanding obtained by explanations through task prediction, explanation
satisfaction, and trust.
- Abstract(参考訳): 本稿では,eXplainable Goal Recognition (XGR)モデルの導入と評価を行い,WoE(Weight of Evidence)フレームワークを用いて目標認識問題を説明する。
私たちのモデルは、理由を答える人間中心の説明を提供します。
なぜだ?
質問だ
システムの性能を8つの異なる領域で計算的に評価する。
人間の行動研究を用いて,ヒトのアノテータから基礎的真理を得ることにより,XGRモデルが人間のような説明をうまく生成できることを示す。
次に,ソコバンをプレイするエージェントを観察し,目標認識出力の説明を受ける60名の参加者を対象に調査を行った。
課題予測, 説明満足度, 信頼度を通じて, 参加者の理解について検討した。
関連論文リスト
- Towards Explainable Goal Recognition Using Weight of Evidence (WoE): A Human-Centered Approach [5.174712539403376]
ゴール認識(GR)は、一連の観察からエージェントの観測されていないゴールを推測することを含む。
伝統的にGRは「最良の説明への推論」や誘拐によって対処されてきた。
本稿では,人間行動説明の基礎となる理論的枠組みと認知過程を基礎とした,GRエージェントのための説明可能なモデルの導入と評価を行う。
論文 参考訳(メタデータ) (2024-09-18T03:30:01Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - Machine Explanations and Human Understanding [31.047297225560566]
説明は、機械学習モデルの人間の理解を改善すると仮定される。
実験的な研究で 混ざった結果も 否定的な結果も出ています
人間の直観が人間の理解にどのような役割を果たしているかを示す。
論文 参考訳(メタデータ) (2022-02-08T19:00:38Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - A Human-Centered Interpretability Framework Based on Weight of Evidence [26.94750208505883]
人間中心のアプローチで機械学習を解釈します。
人間にとって意味のある機械生成説明のための設計原則のリストを提案します。
本手法は高次元のマルチクラス設定に適応可能であることを示す。
論文 参考訳(メタデータ) (2021-04-27T16:13:35Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Order Matters: Generating Progressive Explanations for Planning Tasks in
Human-Robot Teaming [11.35869940310993]
本稿では,説明文を複数の部分に分割して順次通信する場合に,説明文生成時の影響を調査することを目的とする。
我々はまず,スキャベンジャーハントドメインに対するアプローチを評価し,人間の嗜好を効果的に捉えることを実証した。
その結果,説明の理解過程は動的過程であるという仮説が得られた。
論文 参考訳(メタデータ) (2020-04-16T00:17:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。