論文の概要: What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps
- arxiv url: http://arxiv.org/abs/2210.03506v1
- Date: Fri, 7 Oct 2022 12:51:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 14:45:05.276066
- Title: What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps
- Title(参考訳): エンドユーザは本当に何を望んでいるのか?
モバイル健康アプリのための人間中心xaiの検討
- Authors: Katharina Weitz, Alexander Zellner, Elisabeth Andr\'e
- Abstract要約: 説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
- 参考スコア(独自算出の注目度): 69.53730499849023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In healthcare, AI systems support clinicians and patients in diagnosis,
treatment, and monitoring, but many systems' poor explainability remains
challenging for practical application. Overcoming this barrier is the goal of
explainable AI (XAI). However, an explanation can be perceived differently and,
thus, not solve the black-box problem for everyone. The domain of
Human-Centered AI deals with this problem by adapting AI to users. We present a
user-centered persona concept to evaluate XAI and use it to investigate
end-users preferences for various explanation styles and contents in a mobile
health stress monitoring application. The results of our online survey show
that users' demographics and personality, as well as the type of explanation,
impact explanation preferences, indicating that these are essential features
for XAI design. We subsumed the results in three prototypical user personas:
power-, casual-, and privacy-oriented users. Our insights bring an interactive,
human-centered XAI closer to practical application.
- Abstract(参考訳): 医療分野では、AIシステムは臨床医や患者が診断、治療、監視を行うのをサポートするが、多くのシステムの貧弱な説明責任は実用上は難しい。
この障壁を克服することが、説明可能なAI(XAI)の目標である。
しかし、説明は異なる認識が可能であるため、全員のブラックボックス問題は解決されない。
Human-Centered AIのドメインは、AIをユーザに適応させることによってこの問題に対処する。
モバイル型健康ストレスモニタリングアプリケーションにおいて,XAIを評価するためのユーザ中心のペルソナ概念を提示し,エンドユーザーによる様々な説明スタイルや内容の嗜好を調査する。
オンライン調査の結果,利用者の人口動態や性格,説明の種類,影響説明の嗜好がXAI設計に欠かせない特徴であることを示唆した。
我々は、パワー、カジュアル、プライバシ指向の3つのユーザペルソナで結果を仮定した。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
関連論文リスト
- A Survey of Accessible Explainable Artificial Intelligence Research [0.0]
本稿では、説明可能な人工知能(XAI)のアクセシビリティに関する研究について、系統的な文献レビューを行う。
提案手法は,XAIとアクセシビリティーの交差点を捉えるために,いくつかの学術データベースを検索語で検索することを含む。
我々は、デジタル包摂とアクセシビリティを促進するために、XAI開発に障害コミュニティを含めることの重要性を強調している。
論文 参考訳(メタデータ) (2024-07-02T21:09:46Z) - How Human-Centered Explainable AI Interface Are Designed and Evaluated: A Systematic Survey [48.97104365617498]
Em Explainable Interfaces (EIs) の登場する領域は,XAI のユーザインターフェースとユーザエクスペリエンス設計に重点を置いている。
本稿では,人間とXAIの相互作用の現在の動向と,EI設計・開発に向けた将来的な方向性を明らかにするために,53の出版物を体系的に調査する。
論文 参考訳(メタデータ) (2024-03-21T15:44:56Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - "Help Me Help the AI": Understanding How Explainability Can Support
Human-AI Interaction [22.00514030715286]
我々は,鳥類識別アプリMerlinのエンドユーザ20名を対象に,実世界のAIアプリケーションについて調査を行った。
我々は、AIシステムとのコラボレーションを改善するために、実用的に有用な情報の必要性を人々が表現していることを発見した。
また,既存のXAIアプローチに対するエンドユーザの認識を評価し,パートベースの説明を好んだ。
論文 参考訳(メタデータ) (2022-10-02T20:17:11Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。