論文の概要: Overconfident and Unconfident AI Hinder Human-AI Collaboration
- arxiv url: http://arxiv.org/abs/2402.07632v1
- Date: Mon, 12 Feb 2024 13:16:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 14:17:43.397210
- Title: Overconfident and Unconfident AI Hinder Human-AI Collaboration
- Title(参考訳): AIは人間とAIのコラボレーションを妨げる
- Authors: Jingshu Li, Yitian Yang, Yi-chieh Lee
- Abstract要約: 本研究では、AIの過信と過信が人間の信頼、AI提案の受け入れ、コラボレーションの結果に与える影響について検討する。
我々の研究は、AI信頼度レベルとパフォーマンスフィードバックの開示が、AI信頼度の不一致の認識を促進することを明らかにした。
- 参考スコア(独自算出の注目度): 4.097563258332958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As artificial intelligence (AI) advances, human-AI collaboration has become
increasingly prevalent across both professional and everyday settings. In such
collaboration, AI can express its confidence level about its performance,
serving as a crucial indicator for humans to evaluate AI's suggestions.
However, AI may exhibit overconfidence or underconfidence--its expressed
confidence is higher or lower than its actual performance--which may lead
humans to mistakenly evaluate AI advice. Our study investigates the influences
of AI's overconfidence and underconfidence on human trust, their acceptance of
AI suggestions, and collaboration outcomes. Our study reveal that disclosing AI
confidence levels and performance feedback facilitates better recognition of AI
confidence misalignments. However, participants tend to withhold their trust as
perceiving such misalignments, leading to a rejection of AI suggestions and
subsequently poorer performance in collaborative tasks. Conversely, without
such information, participants struggle to identify misalignments, resulting in
either the neglect of correct AI advice or the following of incorrect AI
suggestions, adversely affecting collaboration. This study offers valuable
insights for enhancing human-AI collaboration by underscoring the importance of
aligning AI's expressed confidence with its actual performance and the
necessity of calibrating human trust towards AI confidence.
- Abstract(参考訳): 人工知能(AI)が進歩するにつれて、プロフェッショナルと日常の両方で人間とAIのコラボレーションがますます広まりつつある。
このようなコラボレーションでは、AIはそのパフォーマンスに関する信頼性レベルを表現でき、AIの提案を評価する上で人間にとって重要な指標となる。
しかし、AIは過度な自信または自信の欠如を示す可能性がある。信頼を表すものは実際のパフォーマンスよりも高いか低い。
本研究では、AIの過信と過信が人間の信頼、AI提案の受け入れ、コラボレーションの結果に与える影響について検討する。
我々の研究は、AI信頼度レベルとパフォーマンスフィードバックの開示が、AI信頼度の不一致の認識を促進することを明らかにした。
しかし、参加者はそのような不一致を認識できるとして信頼を保ち、AIの提案を拒絶し、共同作業におけるパフォーマンスが低下する傾向にある。
逆に、そのような情報がなければ、参加者は不正の特定に苦慮し、結果として正しいAIアドバイスを無視するか、不正なAI提案に従うか、コラボレーションに悪影響を及ぼす。
この研究は、AIの表現された信頼を実際のパフォーマンスと整合させることの重要性と、AIの信頼に対する人間の信頼を校正することの必要性を強調することにより、人間とAIのコラボレーションを強化するための貴重な洞察を提供する。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Trustworthy and Responsible AI for Human-Centric Autonomous Decision-Making Systems [2.444630714797783]
我々は、AIバイアス、定義、検出と緩和の方法、およびバイアスを評価するメトリクスの複雑さをレビューし、議論する。
また、人間中心の意思決定のさまざまな領域におけるAIの信頼性と広範な適用に関して、オープンな課題についても論じる。
論文 参考訳(メタデータ) (2024-08-28T06:04:25Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Knowing About Knowing: An Illusion of Human Competence Can Hinder
Appropriate Reliance on AI Systems [13.484359389266864]
本稿では、Dunning-Kruger Effect(DKE)がAIシステムへの適切な依存を妨げているかどうかを論じる。
DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。
その結果、パフォーマンスを過大評価する参加者は、AIシステムへの信頼度が低い傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-01-25T14:26:10Z) - Who Should I Trust: AI or Myself? Leveraging Human and AI Correctness
Likelihood to Promote Appropriate Trust in AI-Assisted Decision-Making [36.50604819969994]
AIによる意思決定では、人間の意思決定者がいつAIを信頼するか、いつ自分自身を信頼するかを知ることが重要である。
我々は、意思決定モデルを近似し、同様の事例で潜在的なパフォーマンスを計算することで、人間のCLをモデル化した。
我々は,AIによる意思決定プロセスにおいて,ユーザの信頼を明確かつシンプルに調整するための3つのCL活用戦略を提案した。
論文 参考訳(メタデータ) (2023-01-14T02:51:01Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。