論文の概要: Impact Of Explainable AI On Cognitive Load: Insights From An Empirical
Study
- arxiv url: http://arxiv.org/abs/2304.08861v1
- Date: Tue, 18 Apr 2023 09:52:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 15:16:11.179047
- Title: Impact Of Explainable AI On Cognitive Load: Insights From An Empirical
Study
- Title(参考訳): 説明可能なAIが認知的負荷に与える影響:実証的研究から
- Authors: Lukas-Valentin Herm
- Abstract要約: 本研究は、新型コロナウイルスのユースケースを用いて、実装に依存しないXAI説明型の認知負荷、タスクパフォーマンス、タスク時間を測定する。
これらの説明型は, エンドユーザの認知負荷, タスクパフォーマンス, タスク時間に強く影響を及ぼすことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While the emerging research field of explainable artificial intelligence
(XAI) claims to address the lack of explainability in high-performance machine
learning models, in practice, XAI targets developers rather than actual
end-users. Unsurprisingly, end-users are often unwilling to use XAI-based
decision support systems. Similarly, there is limited interdisciplinary
research on end-users' behavior during XAI explanations usage, rendering it
unknown how explanations may impact cognitive load and further affect end-user
performance. Therefore, we conducted an empirical study with 271 prospective
physicians, measuring their cognitive load, task performance, and task time for
distinct implementation-independent XAI explanation types using a COVID-19 use
case. We found that these explanation types strongly influence end-users'
cognitive load, task performance, and task time. Further, we contextualized a
mental efficiency metric, ranking local XAI explanation types best, to provide
recommendations for future applications and implications for sociotechnical XAI
research.
- Abstract(参考訳): 説明可能な人工知能(XAI)の新たな研究分野は、高性能機械学習モデルにおける説明可能性の欠如に対処すると主張しているが、実際には、XAIは実際のエンドユーザではなく、開発者をターゲットにしている。
当然ながら、エンドユーザはXAIベースの意思決定支援システムを使いたがらないことが多い。
同様に、XAIの説明におけるエンドユーザー行動に関する学際的な研究は限られており、その説明が認知負荷にどのように影響し、エンドユーザーのパフォーマンスにさらに影響を及ぼすかは分かっていない。
そこで本研究では,271名の医師を対象に,実装非依存のxai説明型に対する認知負荷,タスクパフォーマンス,作業時間の測定を行った。
これらの説明型は, エンドユーザの認知負荷, タスクパフォーマンス, タスク時間に強く影響を及ぼすことがわかった。
さらに,精神効率の指標として,地域XAI説明型を最良に評価し,今後の応用と社会技術XAI研究への示唆を提供する。
関連論文リスト
- Explain To Decide: A Human-Centric Review on the Role of Explainable
Artificial Intelligence in AI-assisted Decision Making [1.0878040851638]
機械学習モデルはエラーを起こしやすく、自律的に使用することはできない。
説明可能な人工知能(XAI)は、エンドユーザーによるモデルの理解を支援する。
本稿では,XAIの人間-AI意思決定への影響に関する最近の実証的研究について報告する。
論文 参考訳(メタデータ) (2023-12-11T22:35:21Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - A Meta-Analysis on the Utility of Explainable Artificial Intelligence in
Human-AI Decision-Making [0.0]
本稿では,統計的メタ分析を用いたXAI研究の初期合成について述べる。
我々は,XAIがユーザのパフォーマンスに与える影響を統計的に肯定的に観察する。
単独のAI予測と比較して、説明がユーザのパフォーマンスに与える影響は見つからない。
論文 参考訳(メタデータ) (2022-05-10T19:08:10Z) - Explainable Artificial Intelligence Methods in Combating Pandemics: A
Systematic Review [7.140215556873923]
新型コロナウイルス(COVID-19)パンデミックにおける人工知能の影響は、モデルの透明性の欠如によって大幅に制限された。
XAIをうまく利用すれば、モデルの性能を改善し、エンドユーザに信頼を与え、ユーザの意思決定に影響を与えるのに必要な価値を提供することができる。
論文 参考訳(メタデータ) (2021-12-23T16:55:27Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。