論文の概要: Who Benefits from AI Explanations? Towards Accessible and Interpretable Systems
- arxiv url: http://arxiv.org/abs/2508.10806v1
- Date: Thu, 14 Aug 2025 16:26:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.410127
- Title: Who Benefits from AI Explanations? Towards Accessible and Interpretable Systems
- Title(参考訳): AIの説明から恩恵を受けるのは? アクセシブルで解釈可能なシステムに向けて
- Authors: Maria J. P. Peixoto, Akriti Pandey, Ahsan Zaman, Peter R. Lewis,
- Abstract要約: 本稿では,eXplainable AI(XAI)のアクセシビリティギャップについて検討する。
包括的XAI設計を運用する4部構成の方法論的概念実証について述べる。
予備的な知見は、説明の簡略化は、詳細な説明よりも視覚的でないユーザにとって理解しやすいことを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI systems are increasingly deployed to support decision-making in critical domains, explainability has become a means to enhance the understandability of these outputs and enable users to make more informed and conscious choices. However, despite growing interest in the usability of eXplainable AI (XAI), the accessibility of these methods, particularly for users with vision impairments, remains underexplored. This paper investigates accessibility gaps in XAI through a two-pronged approach. First, a literature review of 79 studies reveals that evaluations of XAI techniques rarely include disabled users, with most explanations relying on inherently visual formats. Second, we present a four-part methodological proof of concept that operationalizes inclusive XAI design: (1) categorization of AI systems, (2) persona definition and contextualization, (3) prototype design and implementation, and (4) expert and user assessment of XAI techniques for accessibility. Preliminary findings suggest that simplified explanations are more comprehensible for non-visual users than detailed ones, and that multimodal presentation is required for more equitable interpretability.
- Abstract(参考訳): 重要な領域における意思決定を支援するためにAIシステムがますますデプロイされるにつれて、説明可能性は、これらのアウトプットの理解性を高め、ユーザがより情報的で意識的な選択を行えるようにするための手段になっています。
しかし、eXplainable AI(XAI)のユーザビリティへの関心が高まりつつあるにもかかわらず、特に視覚障害のあるユーザに対しては、これらの手法のアクセシビリティは未調査のままである。
本稿では,XAIにおけるアクセシビリティギャップを2段階のアプローチで検討する。
まず、79の研究の文献レビューにより、XAI技術の評価には障害のあるユーザーがほとんど含まれず、ほとんどの説明は本質的に視覚的な形式に依存していることが明らかになった。
第2に,AIシステムの分類と文脈化,プロトタイプの設計と実装,(4)アクセシビリティのためのXAI技術の専門家とユーザ評価の4つの概念の方法論的証明を提案する。
予備的な知見は, 視覚的でないユーザにとって, より詳細な説明よりも簡易な説明の方が理解しやすいこと, より公平な解釈にマルチモーダルなプレゼンテーションが必要であることを示唆している。
関連論文リスト
- IXAII: An Interactive Explainable Artificial Intelligence Interface for Decision Support Systems [0.13654846342364302]
IXAIIは、LIME、SHAP、Anchors、DiCEの4つの説明可能なAIメソッドから説明を提供する。
プロトタイプでは,5つのユーザグループに対して適切なビューを提供し,説明内容やフォーマットに関してユーザエージェンシーを提供する。
論文 参考訳(メタデータ) (2025-06-26T14:28:13Z) - Explanation User Interfaces: A Systematic Literature Review [4.8032298282965025]
ユーザへの説明の提示は簡単ではなく、しばしばシステムの設計プロセスの二次的な側面として残される。
本稿では,XUI(Systematic Literature Review on Explanation User Interfaces)を,学術文献におけるソリューションと設計ガイドラインのより深い理解を得るために提案する。
我々はまた、XUIの設計と評価において実践者や学者を導くために、Human-cEnteRed DevelopmentMent of Explainable User InterfaceS (HERMES)を提案する。
論文 参考訳(メタデータ) (2025-05-26T15:00:17Z) - How Human-Centered Explainable AI Interface Are Designed and Evaluated: A Systematic Survey [48.97104365617498]
Em Explainable Interfaces (EIs) の登場する領域は,XAI のユーザインターフェースとユーザエクスペリエンス設計に重点を置いている。
本稿では,人間とXAIの相互作用の現在の動向と,EI設計・開発に向けた将来的な方向性を明らかにするために,53の出版物を体系的に調査する。
論文 参考訳(メタデータ) (2024-03-21T15:44:56Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Invisible Users: Uncovering End-Users' Requirements for Explainable AI
via Explanation Forms and Goals [19.268536451101912]
非技術者のエンドユーザは、最先端の説明可能な人工知能(XAI)技術のサイレントで目に見えないユーザです。
それらのAI説明可能性に対する要求と要求は、XAI技術の設計と評価には組み込まれていない。
これにより、XAI技術は、医療、刑事司法、金融、自動運転システムといった、高額な応用において非効率または有害である。
論文 参考訳(メタデータ) (2023-02-10T19:35:57Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。