論文の概要: Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making
- arxiv url: http://arxiv.org/abs/2010.07938v2
- Date: Mon, 4 Apr 2022 22:42:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 05:30:24.210093
- Title: Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making
- Title(参考訳): 迅速かつ遅い判断--ai支援意思決定における認知バイアスの役割
- Authors: Charvi Rastogi, Yunfeng Zhang, Dennis Wei, Kush R. Varshney, Amit
Dhurandhar, Richard Tomsett
- Abstract要約: 我々は、認知科学の分野からの知識を用いて、人間とAIの協調的な意思決定設定における認知バイアスを考慮します。
私たちは、人間とAIのコラボレーションでよく見られるバイアスであるバイアスのアンカーに特に焦点を当てています。
- 参考スコア(独自算出の注目度): 46.625616262738404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several strands of research have aimed to bridge the gap between artificial
intelligence (AI) and human decision-makers in AI-assisted decision-making,
where humans are the consumers of AI model predictions and the ultimate
decision-makers in high-stakes applications. However, people's perception and
understanding are often distorted by their cognitive biases, such as
confirmation bias, anchoring bias, availability bias, to name a few. In this
work, we use knowledge from the field of cognitive science to account for
cognitive biases in the human-AI collaborative decision-making setting, and
mitigate their negative effects on collaborative performance. To this end, we
mathematically model cognitive biases and provide a general framework through
which researchers and practitioners can understand the interplay between
cognitive biases and human-AI accuracy. We then focus specifically on anchoring
bias, a bias commonly encountered in human-AI collaboration. We implement a
time-based de-anchoring strategy and conduct our first user experiment that
validates its effectiveness in human-AI collaborative decision-making. With
this result, we design a time allocation strategy for a resource-constrained
setting that achieves optimal human-AI collaboration under some assumptions.
We, then, conduct a second user experiment which shows that our time allocation
strategy with explanation can effectively de-anchor the human and improve
collaborative performance when the AI model has low confidence and is
incorrect.
- Abstract(参考訳): 人工知能(AI)と人間の意思決定者の間のギャップを埋めることを目的としている研究がいくつかある。AIによる意思決定では、人間がAIモデル予測の消費者であり、高度なアプリケーションにおける最終的な意思決定者である。
しかしながら、人々の認識と理解は、確認バイアス、アンカーバイアス、可用性バイアスなど、認知バイアスによって歪んでいることが多い。
本研究では,認知科学の分野からの知識を用いて,人間とaiの協調的意思決定における認知バイアスを考慮し,協調的パフォーマンスに対する認知的バイアスの悪影響を緩和する。
この目的のために,認知バイアスを数学的にモデル化し,研究者や実践者が認知バイアスと人間-aiの正確さの相互作用を理解するための一般的な枠組みを提供する。
そして、人間とAIのコラボレーションでよく見られるバイアスであるバイアスをアンカーすることに焦点を当てます。
我々は,時間ベースのデアンコリング戦略を実装し,人間-ai協調意思決定におけるその効果を検証する最初のユーザ実験を行う。
この結果から,いくつかの前提の下で最適な人間-AI協調を実現する資源制約設定のための時間割当戦略を設計する。
次に第2のユーザ実験を行い,aiモデルの信頼性が低く,不正確である場合に,説明を伴う時間割当戦略が効果的に人間を解き放ち,協調的なパフォーマンスを向上させることができることを示す。
関連論文リスト
- Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Towards Effective Human-AI Decision-Making: The Role of Human Learning
in Appropriate Reliance on AI Advice [3.595471754135419]
参加者100名を対象にした実験において,学習と適切な信頼の関係を示す。
本研究は,人間とAIの意思決定を効果的に設計するために,信頼度を分析し,意味を導き出すための基本的な概念を提供する。
論文 参考訳(メタデータ) (2023-10-03T14:51:53Z) - Training Towards Critical Use: Learning to Situate AI Predictions
Relative to Human Knowledge [22.21959942886099]
我々は、人間がAIモデルでは利用できない知識に対してAI予測をシチュレートする能力を集中させる「クリティカルユース」と呼ばれるプロセス指向の適切な依存の概念を紹介します。
我々は、児童虐待スクリーニングという複雑な社会的意思決定環境でランダム化オンライン実験を行う。
参加者にAIによる意思決定を実践する、迅速で低い機会を提供することによって、初心者は、経験豊富な労働者に類似したAIとの不一致のパターンを示すようになった。
論文 参考訳(メタデータ) (2023-08-30T01:54:31Z) - The Impact of Imperfect XAI on Human-AI Decision-Making [7.29807482760841]
鳥種識別作業において,誤った説明が人間の意思決定行動にどのように影響するかを評価する。
この結果から,AIと人間-AIチームパフォーマンスへの不完全なXAIと,人間の専門知識レベルの影響が明らかになった。
論文 参考訳(メタデータ) (2023-07-25T15:19:36Z) - BO-Muse: A human expert and AI teaming framework for accelerated
experimental design [58.61002520273518]
我々のアルゴリズムは、人間の専門家が実験プロセスでリードすることを可能にする。
我々のアルゴリズムは、AIや人間よりも高速に、サブ線形に収束することを示す。
論文 参考訳(メタデータ) (2023-03-03T02:56:05Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - Advancing Human-AI Complementarity: The Impact of User Expertise and
Algorithmic Tuning on Joint Decision Making [10.890854857970488]
ユーザのドメイン知識、AIシステムのメンタルモデル、レコメンデーションへの信頼など、多くの要因がヒューマンAIチームの成功に影響を与える可能性がある。
本研究は,非自明な血管ラベル作成作業において,血管が流れているか停止しているかを被験者に示すことを目的とした。
以上の結果から,AI-Assistantからの推薦はユーザの意思決定に役立つが,AIに対するユーザベースラインのパフォーマンスや,AIエラー型の相補的チューニングといった要因は,チーム全体のパフォーマンスに大きな影響を及ぼすことが示された。
論文 参考訳(メタデータ) (2022-08-16T21:39:58Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [89.01584399789951]
歴史的専門家の意思決定を豊富な情報源として利用することを検討します。
観察されたラベルだけで学習する制限を緩和するために活用できることを示しています。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。