論文の概要: Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making
- arxiv url: http://arxiv.org/abs/2010.07938v2
- Date: Mon, 4 Apr 2022 22:42:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 05:30:24.210093
- Title: Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making
- Title(参考訳): 迅速かつ遅い判断--ai支援意思決定における認知バイアスの役割
- Authors: Charvi Rastogi, Yunfeng Zhang, Dennis Wei, Kush R. Varshney, Amit
Dhurandhar, Richard Tomsett
- Abstract要約: 我々は、認知科学の分野からの知識を用いて、人間とAIの協調的な意思決定設定における認知バイアスを考慮します。
私たちは、人間とAIのコラボレーションでよく見られるバイアスであるバイアスのアンカーに特に焦点を当てています。
- 参考スコア(独自算出の注目度): 46.625616262738404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several strands of research have aimed to bridge the gap between artificial
intelligence (AI) and human decision-makers in AI-assisted decision-making,
where humans are the consumers of AI model predictions and the ultimate
decision-makers in high-stakes applications. However, people's perception and
understanding are often distorted by their cognitive biases, such as
confirmation bias, anchoring bias, availability bias, to name a few. In this
work, we use knowledge from the field of cognitive science to account for
cognitive biases in the human-AI collaborative decision-making setting, and
mitigate their negative effects on collaborative performance. To this end, we
mathematically model cognitive biases and provide a general framework through
which researchers and practitioners can understand the interplay between
cognitive biases and human-AI accuracy. We then focus specifically on anchoring
bias, a bias commonly encountered in human-AI collaboration. We implement a
time-based de-anchoring strategy and conduct our first user experiment that
validates its effectiveness in human-AI collaborative decision-making. With
this result, we design a time allocation strategy for a resource-constrained
setting that achieves optimal human-AI collaboration under some assumptions.
We, then, conduct a second user experiment which shows that our time allocation
strategy with explanation can effectively de-anchor the human and improve
collaborative performance when the AI model has low confidence and is
incorrect.
- Abstract(参考訳): 人工知能(AI)と人間の意思決定者の間のギャップを埋めることを目的としている研究がいくつかある。AIによる意思決定では、人間がAIモデル予測の消費者であり、高度なアプリケーションにおける最終的な意思決定者である。
しかしながら、人々の認識と理解は、確認バイアス、アンカーバイアス、可用性バイアスなど、認知バイアスによって歪んでいることが多い。
本研究では,認知科学の分野からの知識を用いて,人間とaiの協調的意思決定における認知バイアスを考慮し,協調的パフォーマンスに対する認知的バイアスの悪影響を緩和する。
この目的のために,認知バイアスを数学的にモデル化し,研究者や実践者が認知バイアスと人間-aiの正確さの相互作用を理解するための一般的な枠組みを提供する。
そして、人間とAIのコラボレーションでよく見られるバイアスであるバイアスをアンカーすることに焦点を当てます。
我々は,時間ベースのデアンコリング戦略を実装し,人間-ai協調意思決定におけるその効果を検証する最初のユーザ実験を行う。
この結果から,いくつかの前提の下で最適な人間-AI協調を実現する資源制約設定のための時間割当戦略を設計する。
次に第2のユーザ実験を行い,aiモデルの信頼性が低く,不正確である場合に,説明を伴う時間割当戦略が効果的に人間を解き放ち,協調的なパフォーマンスを向上させることができることを示す。
関連論文リスト
- Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Unexploited Information Value in Human-AI Collaboration [23.353778024330165]
ヒューマンAIチームのパフォーマンスを改善する方法は、各エージェントがどのような情報や戦略を採用しているかを知らなければ、しばしば明確ではない。
本稿では,人間とAIの協調関係を分析するための統計的決定理論に基づくモデルを提案する。
論文 参考訳(メタデータ) (2024-11-03T01:34:45Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Towards Effective Human-AI Decision-Making: The Role of Human Learning
in Appropriate Reliance on AI Advice [3.595471754135419]
参加者100名を対象にした実験において,学習と適切な信頼の関係を示す。
本研究は,人間とAIの意思決定を効果的に設計するために,信頼度を分析し,意味を導き出すための基本的な概念を提供する。
論文 参考訳(メタデータ) (2023-10-03T14:51:53Z) - The Impact of Imperfect XAI on Human-AI Decision-Making [8.305869611846775]
鳥種識別作業において,誤った説明が人間の意思決定行動にどのように影響するかを評価する。
この結果から,AIと人間-AIチームパフォーマンスへの不完全なXAIと,人間の専門知識レベルの影響が明らかになった。
論文 参考訳(メタデータ) (2023-07-25T15:19:36Z) - BO-Muse: A human expert and AI teaming framework for accelerated
experimental design [58.61002520273518]
我々のアルゴリズムは、人間の専門家が実験プロセスでリードすることを可能にする。
我々のアルゴリズムは、AIや人間よりも高速に、サブ線形に収束することを示す。
論文 参考訳(メタデータ) (2023-03-03T02:56:05Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - Advancing Human-AI Complementarity: The Impact of User Expertise and
Algorithmic Tuning on Joint Decision Making [10.890854857970488]
ユーザのドメイン知識、AIシステムのメンタルモデル、レコメンデーションへの信頼など、多くの要因がヒューマンAIチームの成功に影響を与える可能性がある。
本研究は,非自明な血管ラベル作成作業において,血管が流れているか停止しているかを被験者に示すことを目的とした。
以上の結果から,AI-Assistantからの推薦はユーザの意思決定に役立つが,AIに対するユーザベースラインのパフォーマンスや,AIエラー型の相補的チューニングといった要因は,チーム全体のパフォーマンスに大きな影響を及ぼすことが示された。
論文 参考訳(メタデータ) (2022-08-16T21:39:58Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。