論文の概要: Is Conversational XAI All You Need? Human-AI Decision Making With a Conversational XAI Assistant
- arxiv url: http://arxiv.org/abs/2501.17546v1
- Date: Wed, 29 Jan 2025 10:29:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:53:29.789310
- Title: Is Conversational XAI All You Need? Human-AI Decision Making With a Conversational XAI Assistant
- Title(参考訳): 会話型XAIは必要か? 会話型XAIアシスタントによる人間とAIの意思決定
- Authors: Gaole He, Nilay Aishwarya, Ujwal Gadiraju,
- Abstract要約: 既存のXAIメソッドを対話型ユーザインタフェースで拡張することで、ユーザエンゲージメントが向上し、AIシステムのユーザ理解が向上する、と我々は主張する。
会話型XAIインタフェースは、ユーザ間のAIシステムをよりよく理解し、より高いユーザ信頼をもたらすことがわかりました。
しかし、XAIダッシュボードと会話型XAIインターフェースの両方のユーザは、AIシステムに明らかに依存していた。
- 参考スコア(独自算出の注目度): 11.690126756498223
- License:
- Abstract: Explainable artificial intelligence (XAI) methods are being proposed to help interpret and understand how AI systems reach specific predictions. Inspired by prior work on conversational user interfaces, we argue that augmenting existing XAI methods with conversational user interfaces can increase user engagement and boost user understanding of the AI system. In this paper, we explored the impact of a conversational XAI interface on users' understanding of the AI system, their trust, and reliance on the AI system. In comparison to an XAI dashboard, we found that the conversational XAI interface can bring about a better understanding of the AI system among users and higher user trust. However, users of both the XAI dashboard and conversational XAI interfaces showed clear overreliance on the AI system. Enhanced conversations powered by large language model (LLM) agents amplified over-reliance. Based on our findings, we reason that the potential cause of such overreliance is the illusion of explanatory depth that is concomitant with both XAI interfaces. Our findings have important implications for designing effective conversational XAI interfaces to facilitate appropriate reliance and improve human-AI collaboration. Code can be found at https://github.com/delftcrowd/IUI2025_ConvXAI
- Abstract(参考訳): 説明可能な人工知能(XAI)手法は、AIシステムが特定の予測に達する方法を解釈し理解するために提案されている。
会話型ユーザインタフェースに関する先行研究に触発されて、既存のXAIメソッドを会話型ユーザインターフェースで拡張することで、ユーザのエンゲージメントが向上し、AIシステムのユーザ理解が向上する、と私たちは主張する。
本稿では,会話型XAIインタフェースがAIシステムに対するユーザの理解,信頼,AIシステムへの信頼に与える影響について考察する。
XAIダッシュボードと比較して、会話型XAIインターフェースは、ユーザ間のAIシステムをよりよく理解し、より高いユーザ信頼をもたらすことが分かりました。
しかし、XAIダッシュボードと会話型XAIインターフェースの両方のユーザは、AIシステムに明らかに依存していた。
大規模言語モデル(LLM)エージェントによる会話の強化は、過度な信頼を増幅した。
以上の結果から,これらの過信の原因は,両XAIインターフェースに共通する説明的深さの錯覚である可能性が示唆された。
本研究は,効果的な対話型XAIインタフェースの設計に重要な意味を持つ。
コードはhttps://github.com/delftcrowd/IUI2025_ConvXAIで見ることができる。
関連論文リスト
- Investigating the Role of Explainability and AI Literacy in User Compliance [2.8623940003518156]
XAIの導入により,ユーザのコンプライアンスが向上する一方で,AIリテラシーの影響も受けていることがわかった。
また,AIリテラシーXAIとユーザのコンプライアンスの関係は,ユーザのメンタルモデルが介在していることも確認した。
論文 参考訳(メタデータ) (2024-06-18T14:28:12Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - ConvXAI: Delivering Heterogeneous AI Explanations via Conversations to
Support Human-AI Scientific Writing [45.187790784934734]
本稿では,AIを活用した科学書記タスクのための会話型XAIについて述べる。
我々は、"multifaceted"、"controllability"、"mix-initiative"、"context-aware drill-down"の4つの設計論理を識別する。
我々はそれらをインタラクティブなプロトタイプであるConvXAIに組み込み、対話を通じて科学的記述のための異種AI説明を容易にする。
論文 参考訳(メタデータ) (2023-05-16T19:48:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - "Help Me Help the AI": Understanding How Explainability Can Support
Human-AI Interaction [22.00514030715286]
我々は,鳥類識別アプリMerlinのエンドユーザ20名を対象に,実世界のAIアプリケーションについて調査を行った。
我々は、AIシステムとのコラボレーションを改善するために、実用的に有用な情報の必要性を人々が表現していることを発見した。
また,既存のXAIアプローチに対するエンドユーザの認識を評価し,パートベースの説明を好んだ。
論文 参考訳(メタデータ) (2022-10-02T20:17:11Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Designer-User Communication for XAI: An epistemological approach to
discuss XAI design [4.169915659794568]
Signifying Message を概念的なツールとして、XAI シナリオを構造化および議論します。
私たちは、ヘルスケアAIシステムの議論にその使用を実験します。
論文 参考訳(メタデータ) (2021-05-17T13:18:57Z) - Questioning the AI: Informing Design Practices for Explainable AI User
Experiences [33.81809180549226]
説明可能なAI(XAI)への関心の高まりは、このトピックに関する膨大なアルゴリズム作業の収集につながった。
私たちは、説明可能なAI製品を作成するための現在のXAIアルゴリズム作業とプラクティスのギャップを特定しようとしています。
我々は,ユーザが説明責任を表現できるXAI質問バンクを開発した。
論文 参考訳(メタデータ) (2020-01-08T12:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。