論文の概要: Painting the black box white: experimental findings from applying XAI to
an ECG reading setting
- arxiv url: http://arxiv.org/abs/2210.15236v1
- Date: Thu, 27 Oct 2022 07:47:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 14:13:42.397250
- Title: Painting the black box white: experimental findings from applying XAI to
an ECG reading setting
- Title(参考訳): ブラックボックスを白く塗る--XAIを心電図読解装置に応用した実験結果
- Authors: Federico Cabitza and Matteo Cameli and Andrea Campagner and Chiara
Natali and Luca Ronzio
- Abstract要約: シンボリックAIシステムからブラックボックス、サブシンボリック、統計システムへの移行は、説明可能なAI(XAI)への関心の急激な増加を動機付けている。
我々は,ユーザによる説明・XAIシステムに対する認識の認知次元に着目した。
- 参考スコア(独自算出の注目度): 0.13124513975412253
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The shift from symbolic AI systems to black-box, sub-symbolic, and
statistical ones has motivated a rapid increase in the interest toward
explainable AI (XAI), i.e. approaches to make black-box AI systems explainable
to human decision makers with the aim of making these systems more acceptable
and more usable tools and supports. However, we make the point that, rather
than always making black boxes transparent, these approaches are at risk of
\emph{painting the black boxes white}, thus failing to provide a level of
transparency that would increase the system's usability and comprehensibility;
or, even, at risk of generating new errors, in what we termed the
\emph{white-box paradox}. To address these usability-related issues, in this
work we focus on the cognitive dimension of users' perception of explanations
and XAI systems. To this aim, we designed and conducted a questionnaire-based
experiment by which we involved 44 cardiology residents and specialists in an
AI-supported ECG reading task. In doing so, we investigated different research
questions concerning the relationship between users' characteristics (e.g.
expertise) and their perception of AI and XAI systems, including their trust,
the perceived explanations' quality and their tendency to defer the decision
process to automation (i.e. technology dominance), as well as the mutual
relationships among these different dimensions. Our findings provide a
contribution to the evaluation of AI-based support systems from a Human-AI
interaction-oriented perspective and lay the ground for further investigation
of XAI and its effects on decision making and user experience.
- Abstract(参考訳): シンボリックAIシステムからブラックボックス、サブシンボリック、統計システムへのシフトは、説明可能なAI(XAI)への関心の高まりを動機付けている。
しかし、我々は、常にブラックボックスを透明にするのではなく、これらのアプローチは、システムのユーザビリティと理解性を向上するレベルの透明性を提供できない、あるいは、新しいエラーを発生させるリスクがある、というリスクがある、と指摘する。
このようなユーザビリティに関する問題に対処するため,本研究では,ユーザによる説明認識の認知的次元とxaiシステムに着目した。
そこで我々は,AI支援ECG読解タスクにおいて,44人の心臓科医と専門医による質問紙調査を行った。
そこで我々は,ユーザの特性(専門知識など)とAIとXAIシステムに対する認識との関係について,信頼度,理解された説明の質,自動化プロセスの延期傾向(すなわち技術優位性),およびこれらの異なる側面間の相互関係など,さまざまな研究課題を考察した。
本研究は,人間とAIのインタラクション指向の観点からAIベースの支援システムの評価に寄与し,XAIのさらなる研究と,その意思決定とユーザエクスペリエンスへの影響を裏付けるものである。
関連論文リスト
- Investigating the Role of Explainability and AI Literacy in User Compliance [2.8623940003518156]
XAIの導入により,ユーザのコンプライアンスが向上する一方で,AIリテラシーの影響も受けていることがわかった。
また,AIリテラシーXAIとユーザのコンプライアンスの関係は,ユーザのメンタルモデルが介在していることも確認した。
論文 参考訳(メタデータ) (2024-06-18T14:28:12Z) - How Human-Centered Explainable AI Interface Are Designed and Evaluated: A Systematic Survey [48.97104365617498]
Em Explainable Interfaces (EIs) の登場する領域は,XAI のユーザインターフェースとユーザエクスペリエンス設計に重点を置いている。
本稿では,人間とXAIの相互作用の現在の動向と,EI設計・開発に向けた将来的な方向性を明らかにするために,53の出版物を体系的に調査する。
論文 参考訳(メタデータ) (2024-03-21T15:44:56Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Explainable Artificial Intelligence (XAI) for Increasing User Trust in
Deep Reinforcement Learning Driven Autonomous Systems [0.8701566919381223]
我々は3つの説明を提供する説明可能な人工知能(XAI)フレームワークを提供する。
我々は,XAIフレームワークのユーザインタフェースを作成し,その有効性を評価した。
論文 参考訳(メタデータ) (2021-06-07T16:38:43Z) - Explainable Artificial Intelligence (XAI): An Engineering Perspective [0.0]
XAIは、いわゆるブラックボックスAIアルゴリズムをホワイトボックスアルゴリズムに変換するテクニックと方法のセットです。
XAIのステークホルダを議論し、エンジニアリングの観点からXAIの数学的輪郭を説明します。
この研究は、XAIの分野における研究の新しい道を特定するための探索的研究です。
論文 参考訳(メタデータ) (2021-01-10T19:49:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。