論文の概要: Explanation User Interfaces: A Systematic Literature Review
- arxiv url: http://arxiv.org/abs/2505.20085v1
- Date: Mon, 26 May 2025 15:00:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.536031
- Title: Explanation User Interfaces: A Systematic Literature Review
- Title(参考訳): 解説 ユーザインタフェース: 体系的な文献レビュー
- Authors: Eleonora Cappuccio, Andrea Esposito, Francesco Greco, Giuseppe Desolda, Rosa Lanzilotti, Salvatore Rinzivillo,
- Abstract要約: ユーザへの説明の提示は簡単ではなく、しばしばシステムの設計プロセスの二次的な側面として残される。
本稿では,XUI(Systematic Literature Review on Explanation User Interfaces)を,学術文献におけるソリューションと設計ガイドラインのより深い理解を得るために提案する。
我々はまた、XUIの設計と評価において実践者や学者を導くために、Human-cEnteRed DevelopmentMent of Explainable User InterfaceS (HERMES)を提案する。
- 参考スコア(独自算出の注目度): 4.8032298282965025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) is one of the major technological advancements of this century, bearing incredible potential for users through AI-powered applications and tools in numerous domains. Being often black-box (i.e., its decision-making process is unintelligible), developers typically resort to eXplainable Artificial Intelligence (XAI) techniques to interpret the behaviour of AI models to produce systems that are transparent, fair, reliable, and trustworthy. However, presenting explanations to the user is not trivial and is often left as a secondary aspect of the system's design process, leading to AI systems that are not useful to end-users. This paper presents a Systematic Literature Review on Explanation User Interfaces (XUIs) to gain a deeper understanding of the solutions and design guidelines employed in the academic literature to effectively present explanations to users. To improve the contribution and real-world impact of this survey, we also present a framework for Human-cEnteRed developMent of Explainable user interfaceS (HERMES) to guide practitioners and academics in the design and evaluation of XUIs.
- Abstract(参考訳): AI(Artificial Intelligence, 人工知能)は今世紀の主要な技術進歩の1つで、多くのドメインでAIを使ったアプリケーションやツールによって、ユーザにとって信じられないほど大きな可能性を秘めている。
多くの場合、ブラックボックス(つまり意思決定プロセスは理解できない)であるため、開発者は通常、eXplainable Artificial Intelligence (XAI)技術を使ってAIモデルの振る舞いを解釈し、透明で公正で信頼性があり、信頼に値するシステムを生成する。
しかし、ユーザへの説明の提示は簡単ではなく、システム設計プロセスの二次的な側面としてしばしば残され、エンドユーザにとって役に立たないAIシステムに繋がる。
本稿では,ユーザインタフェース(XUI)に関する体系的文献レビューを行い,学術文献で採用されているソリューションと設計ガイドラインをより深く理解し,ユーザへの説明を効果的に提示する。
また、この調査の貢献と実世界への影響を改善するために、XUIの設計と評価において実践者や学者を指導するHuman-cEnteRed DevelopmentMent of Explainable User InterfaceS (HERMES)を提案する。
関連論文リスト
- Human-AI Interaction in Industrial Robotics: Design and Empirical Evaluation of a User Interface for Explainable AI-Based Robot Program Optimization [5.537321488131869]
本稿では,最先端の深層学習型ロボットプログラムのための説明ユーザインタフェース(XUI)を提案する。
XUIは、スキルレベルによって異なるユーザエクスペリエンスを持つ、ナイーブなユーザとエキスパートなユーザの両方を提供します。
論文 参考訳(メタデータ) (2024-04-30T08:20:31Z) - Explaining AI Decisions: Towards Achieving Human-Centered Explainability in Smart Home Environments [45.55363754551388]
我々は、スマートホームシステムにおける説明を表現する上で、人間中心のアプローチの必要性を論じる。
本稿では,人間中心のXAI手法を提唱し,理解しやすい説明を提供することの重要性を強調した。
論文 参考訳(メタデータ) (2024-04-23T22:31:42Z) - How Human-Centered Explainable AI Interface Are Designed and Evaluated: A Systematic Survey [48.97104365617498]
Em Explainable Interfaces (EIs) の登場する領域は,XAI のユーザインターフェースとユーザエクスペリエンス設計に重点を置いている。
本稿では,人間とXAIの相互作用の現在の動向と,EI設計・開発に向けた将来的な方向性を明らかにするために,53の出版物を体系的に調査する。
論文 参考訳(メタデータ) (2024-03-21T15:44:56Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Explainable Artificial Intelligence (XAI) for Increasing User Trust in
Deep Reinforcement Learning Driven Autonomous Systems [0.8701566919381223]
我々は3つの説明を提供する説明可能な人工知能(XAI)フレームワークを提供する。
我々は,XAIフレームワークのユーザインタフェースを作成し,その有効性を評価した。
論文 参考訳(メタデータ) (2021-06-07T16:38:43Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。