論文の概要: Understanding the Role of Human Intuition on Reliance in Human-AI
Decision-Making with Explanations
- arxiv url: http://arxiv.org/abs/2301.07255v1
- Date: Wed, 18 Jan 2023 01:33:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-19 17:13:52.807301
- Title: Understanding the Role of Human Intuition on Reliance in Human-AI
Decision-Making with Explanations
- Title(参考訳): 説明付きAI意思決定における人間直観の役割の理解
- Authors: Valerie Chen, Q. Vera Liao, Jennifer Wortman Vaughan, Gagan Bansal
- Abstract要約: 我々は、意思決定者がAIシステムが提供する情報と自身の直感を調整し、いつAI予測を上書きするかを決定する方法について研究する。
以上の結果から,AIの予測と説明に関する3種類の直観が明らかになった。
これらの経路を用いて、なぜ機能に基づく説明が参加者の決定結果を改善しなかったのかを説明し、AIへの依存度を高めた。
- 参考スコア(独自算出の注目度): 44.01143305912054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI explanations are often mentioned as a way to improve human-AI
decision-making. Yet, empirical studies have not found consistent evidence of
explanations' effectiveness and, on the contrary, suggest that they can
increase overreliance when the AI system is wrong. While many factors may
affect reliance on AI support, one important factor is how decision-makers
reconcile their own intuition -- which may be based on domain knowledge, prior
task experience, or pattern recognition -- with the information provided by the
AI system to determine when to override AI predictions. We conduct a
think-aloud, mixed-methods study with two explanation types (feature- and
example-based) for two prediction tasks to explore how decision-makers'
intuition affects their use of AI predictions and explanations, and ultimately
their choice of when to rely on AI. Our results identify three types of
intuition involved in reasoning about AI predictions and explanations:
intuition about the task outcome, features, and AI limitations. Building on
these, we summarize three observed pathways for decision-makers to apply their
own intuition and override AI predictions. We use these pathways to explain why
(1) the feature-based explanations we used did not improve participants'
decision outcomes and increased their overreliance on AI, and (2) the
example-based explanations we used improved decision-makers' performance over
feature-based explanations and helped achieve complementary human-AI
performance. Overall, our work identifies directions for further development of
AI decision-support systems and explanation methods that help decision-makers
effectively apply their intuition to achieve appropriate reliance on AI.
- Abstract(参考訳): AIの説明はしばしば、人間とAIの意思決定を改善する方法として言及される。
しかし、実証的研究は、説明の有効性の一貫性のある証拠を見出せず、逆にAIシステムが間違っている場合、過度な信頼性を高めることができることを示唆している。
多くの要因がAIサポートに依存する可能性があるが、意思決定者が自身の直感(ドメイン知識、事前タスクエクスペリエンス、パターン認識に基づく)をAIシステムが提供する情報と組み合わせて、AI予測をいつオーバーライドするかを決定することが重要な要素である。
我々は、意思決定者の直感がAIの予測と説明の使用にどのように影響するか、そして最終的にAIに依存するタイミングを選択するために、2つの予測タスクのための2つの説明タイプ(機能と例に基づく)で、思考アラウドと混合メソッドの研究を行う。
結果から,AIの予測と説明に関する推論に関わる3つの直観,すなわちタスク結果,特徴,AIの限界に関する直観を抽出した。
これらに基づいて、意思決定者が自身の直感を適用し、AI予測を上書きする3つの観察経路を要約する。
筆者らは,(1)特徴に基づく説明が参加者の判断結果を改善せず,AIに対する信頼度を高めなかった理由,(2)特徴に基づく説明よりも意思決定者のパフォーマンスを向上し,補完的な人間-AIのパフォーマンスを実現した事例に基づく説明を,これらの経路を用いて説明している。
全体として、私たちの研究は、意思決定者がAIに適切に依存するための直感を効果的に適用するのに役立つAI意思決定支援システムと説明方法のさらなる発展に向けた方向性を特定します。
関連論文リスト
- Contrastive Explanations That Anticipate Human Misconceptions Can Improve Human Decision-Making Skills [24.04643864795939]
人々の意思決定能力は、意思決定支援にAIに頼ると、しばしば改善に失敗する。
ほとんどのAIシステムは、AIの決定を正当化する一方的な説明を提供するが、ユーザーの思考を考慮しない。
我々は、AIの選択と予測された、おそらく人間の選択との違いを説明する、人間中心のコントラスト的な説明を生成するためのフレームワークを紹介します。
論文 参考訳(メタデータ) (2024-10-05T18:21:04Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Understanding the Effect of Counterfactual Explanations on Trust and
Reliance on AI for Human-AI Collaborative Clinical Decision Making [5.381004207943597]
本研究は,7人のセラピストと10人のレイパーを対象に,ストローク後生存者の運動の質を評価するための実験を行った。
我々は2種類のAI説明なしで、彼らのパフォーマンス、タスクの合意レベル、AIへの依存を分析した。
我々の研究は、AIモデルの精度をより正確に見積り、間違ったAI出力に対する過度な信頼を減らすために、反事実的説明の可能性について論じている。
論文 参考訳(メタデータ) (2023-08-08T16:23:46Z) - In Search of Verifiability: Explanations Rarely Enable Complementary
Performance in AI-Advised Decision Making [25.18203172421461]
説明は、人間の意思決定者がAIの予測の正しさを検証できる範囲でのみ有用である、と我々は主張する。
また、補完性能の目的と適切な依存度を比較し、後者を結果段階と戦略段階の信頼度の概念に分解する。
論文 参考訳(メタデータ) (2023-05-12T18:28:04Z) - Selective Explanations: Leveraging Human Input to Align Explainable AI [40.33998268146951]
人間の入力を小さなサンプルに利用して選択的な説明を生成するための一般的なフレームワークを提案する。
事例として,意思決定支援タスクを用いて,意思決定者が決定タスクにどう関係するかに基づいて,選択的な説明を探索する。
我々の実験は、AIへの過度な依存を減らすための選択的な説明の可能性を実証している。
論文 参考訳(メタデータ) (2023-01-23T19:00:02Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - To Trust or to Think: Cognitive Forcing Functions Can Reduce
Overreliance on AI in AI-assisted Decision-making [4.877174544937129]
AIによる意思決定支援ツールによってサポートされる人々は、しばしばAIに過度に依存します。
AIの決定に説明を加えることは、過度な信頼を減らすものではありません。
我々の研究は、人間の認知モチベーションが説明可能なAIソリューションの有効性を損なうことを示唆している。
論文 参考訳(メタデータ) (2021-02-19T00:38:53Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。