論文の概要: Behaviour Trees for Conversational Explanation Experiences
- arxiv url: http://arxiv.org/abs/2211.06402v1
- Date: Fri, 11 Nov 2022 18:39:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 16:24:44.156420
- Title: Behaviour Trees for Conversational Explanation Experiences
- Title(参考訳): 対話的説明体験のための行動ツリー
- Authors: Anjana Wijekoon and David Corsar and Nirmalie Wiratunga
- Abstract要約: 本稿では、ユーザがXAIシステムと対話して、説明戦略によって満たされた複数の説明要求を満たす方法に焦点を当てる。
対話型説明体験を対話モデルとしてモデル化する。
実世界のユースケースを用いた評価では、BTには、モデリングや説明経験の取得に自然に寄与する多くの特性がある。
- 参考スコア(独自算出の注目度): 1.5257668132713955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (XAI) has the potential to make a significant impact on
building trust and improving the satisfaction of users who interact with an AI
system for decision-making. There is an abundance of explanation techniques in
literature to address this need. Recently, it has been shown that a user is
likely to have multiple explanation needs that should be addressed by a
constellation of explanation techniques which we refer to as an explanation
strategy. This paper focuses on how users interact with an XAI system to fulfil
these multiple explanation needs satisfied by an explanation strategy. For this
purpose, the paper introduces the concept of an "explanation experience" - as
episodes of user interactions captured by the XAI system when explaining the
decisions made by its AI system. In this paper, we explore how to enable and
capture explanation experiences through conversational interactions. We model
the interactive explanation experience as a dialogue model. Specifically,
Behaviour Trees (BT) are used to model conversational pathways and chatbot
behaviours. A BT dialogue model is easily personalised by dynamically extending
or modifying it to attend to different user needs and explanation strategies.
An evaluation with a real-world use case shows that BTs have a number of
properties that lend naturally to modelling and capturing explanation
experiences; as compared to traditionally used state transition models.
- Abstract(参考訳): 説明可能なAI(XAI)は、信頼の構築と意思決定のためにAIシステムと対話するユーザの満足度向上に大きな影響を与える可能性がある。
このニーズに対処するため、文献には多くの説明技法がある。
近年,説明戦略として紹介する説明手法の連成によって対処すべき説明ニーズが複数存在する可能性が示唆されている。
本稿では、ユーザがXAIシステムと対話して、これらの複数の説明ニーズを説明戦略で満たす方法に焦点を当てる。
そこで本稿では,XAIシステムによるユーザインタラクションのエピソードとして,AIシステムによる意思決定を説明する上での"説明体験"の概念を紹介する。
本稿では,対話的インタラクションを通じて説明体験を実現する方法について検討する。
対話型説明体験を対話モデルとしてモデル化する。
特にビヘイビアツリー(bt)は会話の経路やチャットボットの振る舞いをモデル化するために使用される。
BT対話モデルは、異なるユーザニーズや説明戦略に対応するように動的に拡張または修正することで、容易にパーソナライズできる。
実世界のユースケースによる評価では、BTは従来の状態遷移モデルと比較して、モデル化や説明経験のキャプチャに自然に寄与する多くの特性を持っている。
関連論文リスト
- Fool Me Once? Contrasting Textual and Visual Explanations in a Clinical Decision-Support Setting [43.110187812734864]
視覚的説明(可用性マップ)、自然言語の説明、両方のモダリティの組み合わせの3種類の説明を評価した。
テキストに基づく説明は、高い信頼度をもたらすことが分かっており、従順マップと組み合わせることで軽減される。
また、説明の質、すなわち、それがどれだけ事実的に正しい情報であり、それがAIの正しさとどの程度一致しているかが、異なる説明タイプの有用性に大きく影響していることも観察します。
論文 参考訳(メタデータ) (2024-10-16T06:43:02Z) - Measuring User Understanding in Dialogue-based XAI Systems [2.4124106640519667]
XAIの最先端は、単発、非個人化、一方通行の説明が特徴である。
本稿では,ユーザが学習しているモデルの予測をシミュレートして,3段階のユーザ理解を計測する。
我々は、高い理解率と低い理解率の集団間の相互作用のパターンを明らかにするために、データを分析した。
論文 参考訳(メタデータ) (2024-08-13T15:17:03Z) - Tell me more: Intent Fulfilment Framework for Enhancing User Experiences in Conversational XAI [0.6333053895057925]
本稿では,ユーザのXAIニーズに対して,異なるタイプの説明が協調的にどのように適合するかを考察する。
Intent Fulfilment Framework (IFF)を導入した。
Explanation Experience Dialogue Model は IFF と "Explanation Followups" を統合し,対話型インターフェースを提供する。
論文 参考訳(メタデータ) (2024-05-16T21:13:43Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - May I Ask a Follow-up Question? Understanding the Benefits of Conversations in Neural Network Explainability [17.052366688978935]
自由形式の会話が静的な説明の理解を深めるかどうかを検討する。
参加者が3つの機械学習モデルから選択できる能力に会話が与える影響を計測する。
本研究は,自由形式の会話形式におけるモデル説明のカスタマイズの重要性を強調した。
論文 参考訳(メタデータ) (2023-09-25T09:00:38Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Towards Large-Scale Interpretable Knowledge Graph Reasoning for Dialogue
Systems [109.16553492049441]
よりスケーラブルで一般化可能な対話システムに知識推論機能を組み込む新しい手法を提案する。
我々の知識を最大限に活用するために、変圧器モデルが微分可能な知識グラフを解析して応答を生成するのは、これが初めてである。
論文 参考訳(メタデータ) (2022-03-20T17:51:49Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Explanation as a process: user-centric construction of multi-level and
multi-modal explanations [0.34410212782758043]
本稿では,マルチレベルとマルチモーダルな説明を組み合わせたプロセスベースアプローチを提案する。
私たちは、解釈可能な機械学習アプローチであるインダクティブロジックプログラミングを使用して、理解可能なモデルを学びます。
論文 参考訳(メタデータ) (2021-10-07T19:26:21Z) - Learning Reasoning Paths over Semantic Graphs for Video-grounded
Dialogues [73.04906599884868]
対話文脈(PDC)における推論経路の新しい枠組みを提案する。
PDCモデルは、各質問と回答の語彙成分に基づいて構築されたセマンティックグラフを通じて、対話間の情報フローを発見する。
本モデルでは,この推論経路を通じて視覚情報とテキスト情報を逐次的に処理し,提案する特徴を用いて回答を生成する。
論文 参考訳(メタデータ) (2021-03-01T07:39:26Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。