論文の概要: Invisible Users: Uncovering End-Users' Requirements for Explainable AI
via Explanation Forms and Goals
- arxiv url: http://arxiv.org/abs/2302.06609v1
- Date: Fri, 10 Feb 2023 19:35:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 17:33:30.478647
- Title: Invisible Users: Uncovering End-Users' Requirements for Explainable AI
via Explanation Forms and Goals
- Title(参考訳): Invisible Users: 説明可能なAIに対するエンドユーザの要求を明らかにする
- Authors: Weina Jin, Jianyu Fan, Diane Gromala, Philippe Pasquier, Ghassan
Hamarneh
- Abstract要約: 非技術者のエンドユーザは、最先端の説明可能な人工知能(XAI)技術のサイレントで目に見えないユーザです。
それらのAI説明可能性に対する要求と要求は、XAI技術の設計と評価には組み込まれていない。
これにより、XAI技術は、医療、刑事司法、金融、自動運転システムといった、高額な応用において非効率または有害である。
- 参考スコア(独自算出の注目度): 19.268536451101912
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Non-technical end-users are silent and invisible users of the
state-of-the-art explainable artificial intelligence (XAI) technologies. Their
demands and requirements for AI explainability are not incorporated into the
design and evaluation of XAI techniques, which are developed to explain the
rationales of AI decisions to end-users and assist their critical decisions.
This makes XAI techniques ineffective or even harmful in high-stakes
applications, such as healthcare, criminal justice, finance, and autonomous
driving systems. To systematically understand end-users' requirements to
support the technical development of XAI, we conducted the EUCA user study with
32 layperson participants in four AI-assisted critical tasks. The study
identified comprehensive user requirements for feature-, example-, and
rule-based XAI techniques (manifested by the end-user-friendly explanation
forms) and XAI evaluation objectives (manifested by the explanation goals),
which were shown to be helpful to directly inspire the proposal of new XAI
algorithms and evaluation metrics. The EUCA study findings, the identified
explanation forms and goals for technical specification, and the EUCA study
dataset support the design and evaluation of end-user-centered XAI techniques
for accessible, safe, and accountable AI.
- Abstract(参考訳): 非技術系エンドユーザは、最先端の説明可能な人工知能(xai)技術の静かで目に見えないユーザである。
これらのAI説明可能性の要求と要件は、AI決定の根拠をエンドユーザに説明し、批判的な決定を支援するために開発されたXAIテクニックの設計と評価には組み込まれていない。
これにより、XAI技術は、医療、刑事司法、金融、自動運転システムといった、高額な応用において非効率または有害である。
XAIの技術的開発を支援するためのエンドユーザの要件を体系的に理解するために、我々は、32人のレイパーによるEUCAユーザスタディを4つのAI支援クリティカルタスクで実施した。
本研究は,機能-,例-およびルールベースのXAI技術(エンドユーザーフレンドリな説明形式によって特徴付けられる)とXAI評価目標(説明目標によって特徴付けられる)に対する包括的ユーザ要件を明らかにし,新しいXAIアルゴリズムの提案や評価指標の直接的インスピレーションに役立つことを示した。
EUCA研究の結果、特定された技術的仕様の形式と目標、そしてEUCA研究データセットは、アクセス可能で安全で説明可能なAIのためのエンドユーザー中心のXAI技術の設計と評価をサポートする。
関連論文リスト
- Study on the Helpfulness of Explainable Artificial Intelligence [0.0]
法律、ビジネス、倫理的要件は、効果的なXAIの使用を動機付けている。
本稿では,ユーザがプロキシタスクをうまく実行する能力を通じて,XAI手法を評価することを提案する。
言い換えれば、人間の意思決定におけるXAIの有用性について論じる。
論文 参考訳(メタデータ) (2024-10-14T14:03:52Z) - How Human-Centered Explainable AI Interface Are Designed and Evaluated: A Systematic Survey [48.97104365617498]
Em Explainable Interfaces (EIs) の登場する領域は,XAI のユーザインターフェースとユーザエクスペリエンス設計に重点を置いている。
本稿では,人間とXAIの相互作用の現在の動向と,EI設計・開発に向けた将来的な方向性を明らかにするために,53の出版物を体系的に調査する。
論文 参考訳(メタデータ) (2024-03-21T15:44:56Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Human-Centered Explainable AI (XAI): From Algorithms to User Experiences [29.10123472973571]
説明可能なAI(XAI)は近年,膨大なアルゴリズムコレクションを生み出している。
分野は学際的視点と人間中心のアプローチを受け入れ始めている。
論文 参考訳(メタデータ) (2021-10-20T21:33:46Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。