論文の概要: "Help Me Help the AI": Understanding How Explainability Can Support
Human-AI Interaction
- arxiv url: http://arxiv.org/abs/2210.03735v1
- Date: Sun, 2 Oct 2022 20:17:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 16:21:51.608021
- Title: "Help Me Help the AI": Understanding How Explainability Can Support
Human-AI Interaction
- Title(参考訳): Help Me Help the AI": 説明責任が人間とAIのインタラクションをどのようにサポートするか
- Authors: Sunnie S. Y. Kim and Elizabeth Anne Watkins and Olga Russakovsky and
Ruth Fong and Andr\'es Monroy-Hern\'andez
- Abstract要約: 我々は,鳥類識別アプリMerlinのエンドユーザ20名を対象に,実世界のAIアプリケーションについて調査を行った。
我々は、AIシステムとのコラボレーションを改善するために、実用的に有用な情報の必要性を人々が表現していることを発見した。
また,既存のXAIアプローチに対するエンドユーザの認識を評価し,パートベースの説明を好んだ。
- 参考スコア(独自算出の注目度): 22.00514030715286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the proliferation of explainable AI (XAI) methods, little is
understood about end-users' explainability needs. This gap is critical, because
end-users may have needs that XAI methods should but don't yet support. To
address this gap and contribute to understanding how explainability can support
human-AI interaction, we conducted a study of a real-world AI application via
interviews with 20 end-users of Merlin, a bird-identification app. We found
that people express a need for practically useful information that can improve
their collaboration with the AI system, and intend to use XAI explanations for
calibrating trust, improving their task skills, changing their behavior to
supply better inputs to the AI system, and giving constructive feedback to
developers. We also assessed end-users' perceptions of existing XAI approaches,
finding that they prefer part-based explanations. Finally, we discuss
implications of our findings and provide recommendations for future designs of
XAI, specifically XAI for human-AI collaboration.
- Abstract(参考訳): 説明可能なAI(XAI)メソッドの普及にもかかわらず、エンドユーザの説明可能性の必要性についてはほとんど理解されていない。
なぜなら、エンドユーザはXAIメソッドがサポートされてはいるが、まだサポートされていない必要があるからだ。
このギャップに対処し、説明可能性がどのように人間とAIの相互作用をサポートするかを理解するために、私たちは、鳥の識別アプリであるMerlinの20人のエンドユーザーへのインタビューを通して、現実世界のAIアプリケーションの研究を行った。
我々は、AIシステムとのコラボレーションを改善する実用的な情報の必要性を表現し、信頼の校正、タスクスキルの向上、AIシステムへのより良いインプットの提供、開発者への建設的なフィードバックの提供にXAIの説明を使うことを意図している。
また,既存のXAIアプローチに対するエンドユーザの認識を評価し,パートベースの説明を好んだ。
最後に,本研究の意義について考察し,XAIの今後の設計,特に人間とAIのコラボレーションにおけるXAIへの提言について述べる。
関連論文リスト
- Don't be Fooled: The Misinformation Effect of Explanations in Human-AI Collaboration [11.824688232910193]
我々は,人間がXAIに支えられたAIによる意思決定について研究している。
その結果,誤った説明が正しいAIアドバイスに付随する場合に誤報が生じることがわかった。
この効果は、人間が欠陥のある推論戦略を推測し、タスクの実行を妨げ、手続き的知識の障害を示す。
論文 参考訳(メタデータ) (2024-09-19T14:34:20Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Designer-User Communication for XAI: An epistemological approach to
discuss XAI design [4.169915659794568]
Signifying Message を概念的なツールとして、XAI シナリオを構造化および議論します。
私たちは、ヘルスケアAIシステムの議論にその使用を実験します。
論文 参考訳(メタデータ) (2021-05-17T13:18:57Z) - Questioning the AI: Informing Design Practices for Explainable AI User
Experiences [33.81809180549226]
説明可能なAI(XAI)への関心の高まりは、このトピックに関する膨大なアルゴリズム作業の収集につながった。
私たちは、説明可能なAI製品を作成するための現在のXAIアルゴリズム作業とプラクティスのギャップを特定しようとしています。
我々は,ユーザが説明責任を表現できるXAI質問バンクを開発した。
論文 参考訳(メタデータ) (2020-01-08T12:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。