論文の概要: Understanding the Role of Human Intuition on Reliance in Human-AI
Decision-Making with Explanations
- arxiv url: http://arxiv.org/abs/2301.07255v3
- Date: Wed, 14 Jun 2023 14:50:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-17 02:36:43.427182
- Title: Understanding the Role of Human Intuition on Reliance in Human-AI
Decision-Making with Explanations
- Title(参考訳): 説明付きAI意思決定における人間直観の役割の理解
- Authors: Valerie Chen, Q. Vera Liao, Jennifer Wortman Vaughan, Gagan Bansal
- Abstract要約: 意思決定者の直感がAI予測と説明の使用に与える影響について検討する。
以上の結果から,AIの予測と説明に関する3種類の直観が明らかになった。
これらの経路を用いて、なぜ機能に基づく説明が参加者の決定結果を改善しなかったのかを説明し、AIへの依存度を高めた。
- 参考スコア(独自算出の注目度): 44.01143305912054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI explanations are often mentioned as a way to improve human-AI
decision-making, but empirical studies have not found consistent evidence of
explanations' effectiveness and, on the contrary, suggest that they can
increase overreliance when the AI system is wrong. While many factors may
affect reliance on AI support, one important factor is how decision-makers
reconcile their own intuition -- beliefs or heuristics, based on prior
knowledge, experience, or pattern recognition, used to make judgments -- with
the information provided by the AI system to determine when to override AI
predictions. We conduct a think-aloud, mixed-methods study with two explanation
types (feature- and example-based) for two prediction tasks to explore how
decision-makers' intuition affects their use of AI predictions and
explanations, and ultimately their choice of when to rely on AI. Our results
identify three types of intuition involved in reasoning about AI predictions
and explanations: intuition about the task outcome, features, and AI
limitations. Building on these, we summarize three observed pathways for
decision-makers to apply their own intuition and override AI predictions. We
use these pathways to explain why (1) the feature-based explanations we used
did not improve participants' decision outcomes and increased their
overreliance on AI, and (2) the example-based explanations we used improved
decision-makers' performance over feature-based explanations and helped achieve
complementary human-AI performance. Overall, our work identifies directions for
further development of AI decision-support systems and explanation methods that
help decision-makers effectively apply their intuition to achieve appropriate
reliance on AI.
- Abstract(参考訳): AIの説明は、人間とAIの意思決定を改善する方法としてしばしば言及されるが、実証的研究は、説明の有効性の一貫性のある証拠を見出さず、逆に、AIシステムが間違っている場合に過度な信頼性を高めることができることを示唆している。
多くの要因がAIサポートに依存する可能性があるが、意思決定者がAIの予測をいつオーバーライドするかを決定するためにAIシステムが提供する情報と、事前知識、経験、パターン認識に基づいて、自身の直観(信念やヒューリスティックス)をどう解釈するかが重要な要素である。
我々は、意思決定者の直感がAIの予測と説明の使用にどのように影響するか、そして最終的にAIに依存するタイミングを選択するために、2つの予測タスクのための2つの説明タイプ(機能と例に基づく)で、思考アラウドと混合メソッドの研究を行う。
結果から,AIの予測と説明に関する推論に関わる3つの直観,すなわちタスク結果,特徴,AIの限界に関する直観を抽出した。
これらに基づいて、意思決定者が自身の直感を適用し、AI予測を上書きする3つの観察経路を要約する。
筆者らは,(1)特徴に基づく説明が参加者の判断結果を改善せず,AIに対する信頼度を高めなかった理由,(2)特徴に基づく説明よりも意思決定者のパフォーマンスを向上し,補完的な人間-AIのパフォーマンスを実現した事例に基づく説明を,これらの経路を用いて説明している。
全体として、私たちの研究は、意思決定者がAIに適切に依存するための直感を効果的に適用するのに役立つAI意思決定支援システムと説明方法のさらなる発展に向けた方向性を特定します。
関連論文リスト
- Understanding the Effect of Counterfactual Explanations on Trust and
Reliance on AI for Human-AI Collaborative Clinical Decision Making [5.381004207943597]
本研究は,7人のセラピストと10人のレイパーを対象に,ストローク後生存者の運動の質を評価するための実験を行った。
我々は2種類のAI説明なしで、彼らのパフォーマンス、タスクの合意レベル、AIへの依存を分析した。
我々の研究は、AIモデルの精度をより正確に見積り、間違ったAI出力に対する過度な信頼を減らすために、反事実的説明の可能性について論じている。
論文 参考訳(メタデータ) (2023-08-08T16:23:46Z) - In Search of Verifiability: Explanations Rarely Enable Complementary
Performance in AI-Advised Decision Making [25.18203172421461]
説明は、人間の意思決定者がAIの予測の正しさを検証できる範囲でのみ有用である、と我々は主張する。
また、補完性能の目的と適切な依存度を比較し、後者を結果段階と戦略段階の信頼度の概念に分解する。
論文 参考訳(メタデータ) (2023-05-12T18:28:04Z) - On the Interdependence of Reliance Behavior and Accuracy in AI-Assisted
Decision-Making [0.0]
我々は,AIによる意思決定における信頼行動と精度の相互依存性を分析する。
この相互依存をより具体化するための視覚的枠組みを提案する。
論文 参考訳(メタデータ) (2023-04-18T08:08:05Z) - Selective Explanations: Leveraging Human Input to Align Explainable AI [40.33998268146951]
人間の入力を小さなサンプルに利用して選択的な説明を生成するための一般的なフレームワークを提案する。
事例として,意思決定支援タスクを用いて,意思決定者が決定タスクにどう関係するかに基づいて,選択的な説明を探索する。
我々の実験は、AIへの過度な依存を減らすための選択的な説明の可能性を実証している。
論文 参考訳(メタデータ) (2023-01-23T19:00:02Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - To Trust or to Think: Cognitive Forcing Functions Can Reduce
Overreliance on AI in AI-assisted Decision-making [4.877174544937129]
AIによる意思決定支援ツールによってサポートされる人々は、しばしばAIに過度に依存します。
AIの決定に説明を加えることは、過度な信頼を減らすものではありません。
我々の研究は、人間の認知モチベーションが説明可能なAIソリューションの有効性を損なうことを示唆している。
論文 参考訳(メタデータ) (2021-02-19T00:38:53Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。