論文の概要: The Effect of Explainable AI-based Decision Support on Human Task Performance: A Meta-Analysis
- arxiv url: http://arxiv.org/abs/2504.13858v1
- Date: Sat, 22 Mar 2025 10:38:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.615506
- Title: The Effect of Explainable AI-based Decision Support on Human Task Performance: A Meta-Analysis
- Title(参考訳): 説明可能なAIに基づく意思決定支援がヒューマンタスクパフォーマンスに及ぼす影響:メタ分析
- Authors: Felix Haag,
- Abstract要約: 我々はメタ分析を行い、XAIが分類タスクにおける人間のパフォーマンスにどのように影響するかを探索する。
この結果から,XAIによる意思決定支援によるタスクパフォーマンスの向上が示唆された。
この分析によると、研究のバイアスリスクはAIにおける説明の影響を和らげる一方、説明のタイプは無視できる役割だけを担っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The desirable properties of explanations in information systems have fueled the demands for transparency in artificial intelligence (AI) outputs. To address these demands, the field of explainable AI (XAI) has put forth methods that can support human decision-making by explaining AI outputs. However, current empirical works present inconsistent findings on whether such explanations help to improve users' task performance in decision support systems (DSS). In this paper, we conduct a meta-analysis to explore how XAI affects human performance in classification tasks. Our results show an improvement in task performance through XAI-based decision support, though explanations themselves are not the decisive driver for this improvement. The analysis reveals that the studies' risk of bias moderates the effect of explanations in AI, while the explanation type appears to play only a negligible role. Our findings contribute to the human computer interaction field by enhancing the understanding of human-XAI collaboration in DSS.
- Abstract(参考訳): 情報システムにおける説明の望ましい性質は、人工知能(AI)出力における透明性の要求を後押ししている。
これらの要求に対処するために、説明可能なAI(XAI)の分野は、AI出力を説明することによって人間の意思決定を支援する方法を提唱している。
しかし、現状の実証研究は、意思決定支援システム(DSS)におけるユーザのタスクパフォーマンス向上に寄与するかどうかについて矛盾する結果が得られている。
本稿では,XAIが分類タスクにおける人的パフォーマンスにどう影響するかをメタ分析する。
本研究の結果は,XAIによる意思決定支援によるタスクパフォーマンスの向上を示すものであるが,説明自体がこの改善の決定的要因ではない。
この分析によると、研究のバイアスリスクはAIにおける説明の影響を和らげる一方、説明のタイプは無視可能な役割だけを担っている。
本研究は,DSSにおける人間とXAIのコラボレーションの理解を深めることによって,人間のコンピュータインタラクション分野に寄与する。
関連論文リスト
- How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Study on the Helpfulness of Explainable Artificial Intelligence [0.0]
法律、ビジネス、倫理的要件は、効果的なXAIの使用を動機付けている。
本稿では,ユーザがプロキシタスクをうまく実行する能力を通じて,XAI手法を評価することを提案する。
言い換えれば、人間の意思決定におけるXAIの有用性について論じる。
論文 参考訳(メタデータ) (2024-10-14T14:03:52Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Human Delegation Behavior in Human-AI Collaboration: The Effect of Contextual Information [7.475784495279183]
既存の補完機能を活用するための有望なアプローチの1つは、人間が個々の決定タスクのインスタンスをAIに委譲できるようにすることである。
我々は,この委任決定を支援するための文脈情報の提供の効果を検討するために行動学的研究を行う。
これらの結果から,コンテキスト情報へのアクセスは,デリゲート設定における人間-AIチームのパフォーマンスを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-01-09T18:59:47Z) - The Impact of Imperfect XAI on Human-AI Decision-Making [8.305869611846775]
鳥種識別作業において,誤った説明が人間の意思決定行動にどのように影響するかを評価する。
この結果から,AIと人間-AIチームパフォーマンスへの不完全なXAIと,人間の専門知識レベルの影響が明らかになった。
論文 参考訳(メタデータ) (2023-07-25T15:19:36Z) - Impact Of Explainable AI On Cognitive Load: Insights From An Empirical
Study [0.0]
本研究は、新型コロナウイルスのユースケースを用いて、実装に依存しないXAI説明型の認知負荷、タスクパフォーマンス、タスク時間を測定する。
これらの説明型は, エンドユーザの認知負荷, タスクパフォーマンス, タスク時間に強く影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-04-18T09:52:09Z) - Understanding the Role of Human Intuition on Reliance in Human-AI
Decision-Making with Explanations [44.01143305912054]
意思決定者の直感がAI予測と説明の使用に与える影響について検討する。
以上の結果から,AIの予測と説明に関する3種類の直観が明らかになった。
これらの経路を用いて、なぜ機能に基づく説明が参加者の決定結果を改善しなかったのかを説明し、AIへの依存度を高めた。
論文 参考訳(メタデータ) (2023-01-18T01:33:50Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - A Meta-Analysis on the Utility of Explainable Artificial Intelligence in
Human-AI Decision-Making [0.0]
本稿では,統計的メタ分析を用いたXAI研究の初期合成について述べる。
我々は,XAIがユーザのパフォーマンスに与える影響を統計的に肯定的に観察する。
単独のAI予測と比較して、説明がユーザのパフォーマンスに与える影響は見つからない。
論文 参考訳(メタデータ) (2022-05-10T19:08:10Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。