論文の概要: As Confidence Aligns: Exploring the Effect of AI Confidence on Human Self-confidence in Human-AI Decision Making
- arxiv url: http://arxiv.org/abs/2501.12868v1
- Date: Wed, 22 Jan 2025 13:25:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 13:28:49.027202
- Title: As Confidence Aligns: Exploring the Effect of AI Confidence on Human Self-confidence in Human-AI Decision Making
- Title(参考訳): 人間-AI意思決定におけるAI信頼が人間の自信に及ぼす影響を探る
- Authors: Jingshu Li, Yitian Yang, Q. Vera Liao, Junti Zhang, Yi-Chieh Lee,
- Abstract要約: 人間とAIの意思決定では、ユーザーの自信はAIの信頼と一致し、AIが関与しなくなった後もそのようなアライメントは継続できる。
意思決定におけるリアルタイムの正当性フィードバックの存在は、アライメントの度合いを低下させた。
- 参考スコア(独自算出の注目度): 37.192236418976265
- License:
- Abstract: Complementary collaboration between humans and AI is essential for human-AI decision making. One feasible approach to achieving it involves accounting for the calibrated confidence levels of both AI and users. However, this process would likely be made more difficult by the fact that AI confidence may influence users' self-confidence and its calibration. To explore these dynamics, we conducted a randomized behavioral experiment. Our results indicate that in human-AI decision-making, users' self-confidence aligns with AI confidence and such alignment can persist even after AI ceases to be involved. This alignment then affects users' self-confidence calibration. We also found the presence of real-time correctness feedback of decisions reduced the degree of alignment. These findings suggest that users' self-confidence is not independent of AI confidence, which practitioners aiming to achieve better human-AI collaboration need to be aware of. We call for research focusing on the alignment of human cognition and behavior with AI.
- Abstract(参考訳): 人間とAIの補完的なコラボレーションは、人間とAIの意思決定に不可欠である。
実現可能なアプローチの1つは、AIとユーザの両方の調整された信頼性レベルを考慮することである。
しかし、このプロセスは、AIの信頼性がユーザーの自信とキャリブレーションに影響を与える可能性があるという事実により、より難しいものになるだろう。
これらのダイナミクスを探索するため,ランダムな行動実験を行った。
我々の結果は、人間-AI意思決定において、ユーザーの自信はAIの信頼と一致しており、AIが関与しなくなった後も、そのようなアライメントは持続可能であることを示唆している。
このアライメントは、ユーザの自信のキャリブレーションに影響を与える。
また、意思決定におけるリアルタイムの正当性フィードバックの存在は、アライメントの度合いを低下させた。
これらの結果は、ユーザの自信は、より良い人間とAIのコラボレーションの実現を目指す実践者が認識する必要がある、AIの信頼とは独立していないことを示唆している。
我々は、人間の認知と行動とAIとの整合性に焦点を当てた研究を求めている。
関連論文リスト
- Trust in AI: Progress, Challenges, and Future Directions [6.724854390957174]
私たちの日常生活における人工知能(AI)システムの利用の増加は、ユーザの視点からAIにおける信頼と不信の重要性を説明してくれます。
AIにおける信頼/不信は規制官の役割を担い、この拡散のレベルを著しく制御することができる。
論文 参考訳(メタデータ) (2024-03-12T20:26:49Z) - Overconfident and Unconfident AI Hinder Human-AI Collaboration [5.480154202794587]
本研究は,AIに対するユーザの信頼度,AIアドバイスの採用,コラボレーション結果に及ぼすAI信頼度の影響について検討する。
信頼度調整支援の欠如は、未調整の信頼度の検出を困難にすることでこの問題を悪化させる。
我々の研究は、人間とAIのコラボレーションを強化するためのAI信頼度校正の重要性を強調した。
論文 参考訳(メタデータ) (2024-02-12T13:16:30Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Knowing About Knowing: An Illusion of Human Competence Can Hinder
Appropriate Reliance on AI Systems [13.484359389266864]
本稿では、Dunning-Kruger Effect(DKE)がAIシステムへの適切な依存を妨げているかどうかを論じる。
DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。
その結果、パフォーマンスを過大評価する参加者は、AIシステムへの信頼度が低い傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-01-25T14:26:10Z) - Who Should I Trust: AI or Myself? Leveraging Human and AI Correctness
Likelihood to Promote Appropriate Trust in AI-Assisted Decision-Making [36.50604819969994]
AIによる意思決定では、人間の意思決定者がいつAIを信頼するか、いつ自分自身を信頼するかを知ることが重要である。
我々は、意思決定モデルを近似し、同様の事例で潜在的なパフォーマンスを計算することで、人間のCLをモデル化した。
我々は,AIによる意思決定プロセスにおいて,ユーザの信頼を明確かつシンプルに調整するための3つのCL活用戦略を提案した。
論文 参考訳(メタデータ) (2023-01-14T02:51:01Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。