論文の概要: Transcending XAI Algorithm Boundaries through End-User-Inspired Design
- arxiv url: http://arxiv.org/abs/2208.08739v1
- Date: Thu, 18 Aug 2022 09:44:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:57:14.225875
- Title: Transcending XAI Algorithm Boundaries through End-User-Inspired Design
- Title(参考訳): エンドユーザーインスパイア設計によるXAIアルゴリズム境界の超越
- Authors: Weina Jin, Jianyu Fan, Diane Gromala, Philippe Pasquier, Xiaoxiao Li,
Ghassan Hamarneh
- Abstract要約: エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
- 参考スコア(独自算出の注目度): 27.864338632191608
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The boundaries of existing explainable artificial intelligence (XAI)
algorithms are confined to problems grounded in technical users' demand for
explainability. This research paradigm disproportionately ignores the larger
group of non-technical end users of XAI, who do not have technical knowledge
but need explanations in their AI-assisted critical decisions. Lacking
explainability-focused functional support for end users may hinder the safe and
responsible use of AI in high-stakes domains, such as healthcare, criminal
justice, finance, and autonomous driving systems. In this work, we explore how
designing XAI tailored to end users' critical tasks inspires the framing of new
technical problems. To elicit users' interpretations and requirements for XAI
algorithms, we first identify eight explanation forms as the communication tool
between AI researchers and end users, such as explaining using features,
examples, or rules. Using the explanation forms, we then conduct a user study
with 32 layperson participants in the context of achieving different
explanation goals (such as verifying AI decisions, and improving user's
predicted outcomes) in four critical tasks. Based on the user study findings,
we identify and formulate novel XAI technical problems, and propose an
evaluation metric verifiability based on users' explanation goal of verifying
AI decisions. Our work shows that grounding the technical problem in end users'
use of XAI can inspire new research questions. Such end-user-inspired research
questions have the potential to promote social good by democratizing AI and
ensuring the responsible use of AI in critical domains.
- Abstract(参考訳): 既存の説明可能な人工知能(XAI)アルゴリズムの境界は、技術的ユーザによる説明可能性の要求に基づく問題に限られている。
この研究パラダイムは、技術知識を持っていないがAI支援による批判的な決定に説明を必要とするXAIの非技術エンドユーザーの大規模なグループを無視している。
エンドユーザに対する説明責任を重視した機能サポートの欠如は、医療、刑事司法、財務、自動運転システムといった高度な領域におけるAIの安全で責任ある使用を妨げる可能性がある。
本稿では,エンドユーザのクリティカルなタスクに合わせたxaiの設計が,新たな技術的問題のフレーミングを刺激する方法について検討する。
XAIアルゴリズムの解釈と要件を抽出するために、まず8つの説明形式を、機能、例、ルールを用いた説明など、AI研究者とエンドユーザ間のコミュニケーションツールとして特定する。
説明フォームを用いて,4つの重要なタスクにおいて,異なる説明目標(ai判断の検証,ユーザの予測結果の改善など)を達成するという文脈で,32名の参加者とユーザ調査を行う。
ユーザ調査の結果に基づいて,新しいXAI技術問題を特定し,定式化するとともに,AI決定の検証というユーザの説明目標に基づく評価基準検証性を提案する。
私たちの研究は、エンドユーザのxai利用における技術的な問題を基礎化することで、新たな研究課題を提起できることを示しています。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
関連論文リスト
- Study on the Helpfulness of Explainable Artificial Intelligence [0.0]
法律、ビジネス、倫理的要件は、効果的なXAIの使用を動機付けている。
本稿では,ユーザがプロキシタスクをうまく実行する能力を通じて,XAI手法を評価することを提案する。
言い換えれば、人間の意思決定におけるXAIの有用性について論じる。
論文 参考訳(メタデータ) (2024-10-14T14:03:52Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Invisible Users: Uncovering End-Users' Requirements for Explainable AI
via Explanation Forms and Goals [19.268536451101912]
非技術者のエンドユーザは、最先端の説明可能な人工知能(XAI)技術のサイレントで目に見えないユーザです。
それらのAI説明可能性に対する要求と要求は、XAI技術の設計と評価には組み込まれていない。
これにより、XAI技術は、医療、刑事司法、金融、自動運転システムといった、高額な応用において非効率または有害である。
論文 参考訳(メタデータ) (2023-02-10T19:35:57Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Questioning the AI: Informing Design Practices for Explainable AI User
Experiences [33.81809180549226]
説明可能なAI(XAI)への関心の高まりは、このトピックに関する膨大なアルゴリズム作業の収集につながった。
私たちは、説明可能なAI製品を作成するための現在のXAIアルゴリズム作業とプラクティスのギャップを特定しようとしています。
我々は,ユーザが説明責任を表現できるXAI質問バンクを開発した。
論文 参考訳(メタデータ) (2020-01-08T12:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。