論文の概要: Tell me more: Intent Fulfilment Framework for Enhancing User Experiences in Conversational XAI
- arxiv url: http://arxiv.org/abs/2405.10446v1
- Date: Thu, 16 May 2024 21:13:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-20 17:21:37.721126
- Title: Tell me more: Intent Fulfilment Framework for Enhancing User Experiences in Conversational XAI
- Title(参考訳): 詳しく言うと, 会話型XAIにおけるユーザエクスペリエンス向上のためのIntent Fulfilmentフレームワーク
- Authors: Anjana Wijekoon, David Corsar, Nirmalie Wiratunga, Kyle Martin, Pedram Salimi,
- Abstract要約: 本稿では,ユーザのXAIニーズに対して,異なるタイプの説明が協調的にどのように適合するかを考察する。
Intent Fulfilment Framework (IFF)を導入した。
Explanation Experience Dialogue Model は IFF と "Explanation Followups" を統合し,対話型インターフェースを提供する。
- 参考スコア(独自算出の注目度): 0.6333053895057925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The evolution of Explainable Artificial Intelligence (XAI) has emphasised the significance of meeting diverse user needs. The approaches to identifying and addressing these needs must also advance, recognising that explanation experiences are subjective, user-centred processes that interact with users towards a better understanding of AI decision-making. This paper delves into the interrelations in multi-faceted XAI and examines how different types of explanations collaboratively meet users' XAI needs. We introduce the Intent Fulfilment Framework (IFF) for creating explanation experiences. The novelty of this paper lies in recognising the importance of "follow-up" on explanations for obtaining clarity, verification and/or substitution. Moreover, the Explanation Experience Dialogue Model integrates the IFF and "Explanation Followups" to provide users with a conversational interface for exploring their explanation needs, thereby creating explanation experiences. Quantitative and qualitative findings from our comparative user study demonstrate the impact of the IFF in improving user engagement, the utility of the AI system and the overall user experience. Overall, we reinforce the principle that "one explanation does not fit all" to create explanation experiences that guide the complex interaction through conversation.
- Abstract(参考訳): 説明可能な人工知能(XAI)の進化は、多様なユーザニーズを満たすことの重要性を強調している。
これらのニーズを特定し、対処するためのアプローチは、AI意思決定の理解を深めるために、説明経験が主観的であり、ユーザー中心のプロセスであることを認め、前進する必要がある。
本稿は,多面的XAIにおける相互関係を考察し,ユーザのXAIニーズにどのように対応しているのかを考察する。
Intent Fulfilment Framework (IFF)を導入した。
本論文の新規性は, 明確性, 検証, 置換性を得るための説明において, フォローアップの重要性を認識することである。
さらに、説明体験対話モデルでは、IFFと"Explanation Followups"を統合し、ユーザに対して、説明ニーズを探索する対話インターフェースを提供し、説明体験を作成する。
IFFがユーザエンゲージメントの改善やAIシステムの実用性,ユーザエクスペリエンス全体に与える影響を,比較ユーザスタディから定量的かつ定性的に確認した。
全体としては、会話を通して複雑な相互作用を導く説明体験を作成するために、「一つの説明がすべてに合わない」という原則を補強する。
関連論文リスト
- Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.74265453289855]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースにおける対話型フィードバック機能の可能性について検討し,ユーザ入力の形状やイテレーションへの参加について分析する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - Measuring User Understanding in Dialogue-based XAI Systems [2.4124106640519667]
XAIの最先端は、単発、非個人化、一方通行の説明が特徴である。
本稿では,ユーザが学習しているモデルの予測をシミュレートして,3段階のユーザ理解を計測する。
我々は、高い理解率と低い理解率の集団間の相互作用のパターンを明らかにするために、データを分析した。
論文 参考訳(メタデータ) (2024-08-13T15:17:03Z) - Conceptualizing the Relationship between AI Explanations and User Agency [0.9051087836811617]
我々は,ケーススタディと思考実験を通して,ユーザ中心のレンズを通してエージェントと説明の関係を分析する。
提案手法は,利用者が将来的なインタラクションにおいて,より効果的な結果の変換を行えるようにすることで,エージェンシーのためのいくつかの第1ステップの1つとなることが判明した。
論文 参考訳(メタデータ) (2023-12-05T23:56:05Z) - May I Ask a Follow-up Question? Understanding the Benefits of Conversations in Neural Network Explainability [17.052366688978935]
自由形式の会話が静的な説明の理解を深めるかどうかを検討する。
参加者が3つの機械学習モデルから選択できる能力に会話が与える影響を計測する。
本研究は,自由形式の会話形式におけるモデル説明のカスタマイズの重要性を強調した。
論文 参考訳(メタデータ) (2023-09-25T09:00:38Z) - Interactive Explanation with Varying Level of Details in an Explainable
Scientific Literature Recommender System [0.5937476291232802]
本稿では,ユーザ中心の対話型説明モデルの採用を目標とし,さまざまな詳細レベルの説明を提供するとともに,ユーザのニーズや好みに基づいた説明の対話,制御,パーソナライズを可能にする。
本研究では,対話的説明の提供がユーザによる説明可能なRSの知覚に与える影響について質的研究を行った。
論文 参考訳(メタデータ) (2023-06-09T10:48:04Z) - Behaviour Trees for Conversational Explanation Experiences [1.5257668132713955]
本稿では、ユーザがXAIシステムと対話して、説明戦略によって満たされた複数の説明要求を満たす方法に焦点を当てる。
対話型説明体験を対話モデルとしてモデル化する。
実世界のユースケースを用いた評価では、BTには、モデリングや説明経験の取得に自然に寄与する多くの特性がある。
論文 参考訳(メタデータ) (2022-11-11T18:39:38Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Towards Large-Scale Interpretable Knowledge Graph Reasoning for Dialogue
Systems [109.16553492049441]
よりスケーラブルで一般化可能な対話システムに知識推論機能を組み込む新しい手法を提案する。
我々の知識を最大限に活用するために、変圧器モデルが微分可能な知識グラフを解析して応答を生成するのは、これが初めてである。
論文 参考訳(メタデータ) (2022-03-20T17:51:49Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。