論文の概要: Understanding the Effects of Miscalibrated AI Confidence on User Trust, Reliance, and Decision Efficacy
- arxiv url: http://arxiv.org/abs/2402.07632v4
- Date: Fri, 26 Sep 2025 07:48:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.643296
- Title: Understanding the Effects of Miscalibrated AI Confidence on User Trust, Reliance, and Decision Efficacy
- Title(参考訳): ミススカラーAI信頼がユーザ信頼・信頼・意思決定効果に及ぼす影響を理解する
- Authors: Jingshu Li, Yitian Yang, Renwen Zhang, Q. Vera Liao, Tianqi Song, Zhengtao Xu, Yi-chieh Lee,
- Abstract要約: ミススカラーAIの信頼性は、ユーザの適切な信頼を損なうとともに、AI支援による意思決定の有効性を低下させる。
コミュニケーションAIの信頼度調整レベルは、AIの誤校正を検出するのに役立ちます。
しかし、そのようなコミュニケーションは、未調整のAIに対するユーザの信頼を低下させるため、信頼性が低いため、意思決定の有効性は向上しない。
- 参考スコア(独自算出の注目度): 38.39755953750018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Providing well-calibrated AI confidence can help promote users' appropriate trust in and reliance on AI, which are essential for AI-assisted decision-making. However, calibrating AI confidence -- providing confidence score that accurately reflects the true likelihood of AI being correct -- is known to be challenging. To understand the effects of AI confidence miscalibration, we conducted our first experiment. The results indicate that miscalibrated AI confidence impairs users' appropriate reliance and reduces AI-assisted decision-making efficacy, and AI miscalibration is difficult for users to detect. Then, in our second experiment, we examined whether communicating AI confidence calibration levels could mitigate the above issues. We find that it helps users to detect AI miscalibration. Nevertheless, since such communication decreases users' trust in uncalibrated AI, leading to high under-reliance, it does not improve the decision efficacy. We discuss design implications based on these findings and future directions to address risks and ethical concerns associated with AI miscalibration.
- Abstract(参考訳): 適切に校正されたAIの信頼を提供することは、AI支援意思決定に不可欠なAIへの適切な信頼と信頼を促進するのに役立つ。
しかし、AIの正しさを正確に反映した信頼性スコアを提供するAIの信頼性の校正は困難であることが知られている。
AIの信頼性の誤校正の効果を理解するため、我々は最初の実験を行った。
その結果、AIの信頼性の誤判定は、ユーザの適切な信頼を損なうとともに、AIによる意思決定の有効性を低下させ、AIの誤判定が検出し難いことが示唆された。
そして、第2の実験で、AIの信頼度調整のコミュニケーションが上記の問題を緩和するかどうかを検討した。
ユーザがAIの誤校正を検出するのに役立ちます。
それでも、そのようなコミュニケーションは、未調整のAIに対するユーザの信頼を低下させ、信頼性の低いものへと繋がるため、意思決定の有効性は向上しない。
本稿では,AIの誤校正に伴うリスクや倫理的懸念に対処するための,これらの発見と今後の方向性に基づく設計上の意味について論じる。
関連論文リスト
- The Impact and Feasibility of Self-Confidence Shaping for AI-Assisted Decision-Making [6.852960508141108]
本稿では,目標レベルにおける自己自信の校正を目的とした自己自信形成の介入について述べる。
我々は,AIの信頼度と信頼度を両立させることにより,自己自信形成が人間-AIチームのパフォーマンスを50%近く向上させることができることを示した。
感情と自己自信の関係は、感情を変えることが自己自信を形成するための実行可能な戦略になり得ることを示唆している。
論文 参考訳(メタデータ) (2025-02-20T06:55:41Z) - Human-Alignment Influences the Utility of AI-assisted Decision Making [16.732483972136418]
我々は,アライメントの程度が,AIによる意思決定の有用性に与える影響について検討する。
以上の結果から,AIによる意思決定におけるアライメントの程度と有効性との関連が示唆された。
論文 参考訳(メタデータ) (2025-01-23T19:01:47Z) - As Confidence Aligns: Exploring the Effect of AI Confidence on Human Self-confidence in Human-AI Decision Making [37.192236418976265]
人間とAIの意思決定では、ユーザーの自信はAIの信頼と一致し、AIが関与しなくなった後もそのようなアライメントは継続できる。
意思決定におけるリアルタイムの正当性フィードバックの存在は、アライメントの度合いを低下させた。
論文 参考訳(メタデータ) (2025-01-22T13:25:14Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Trustworthy and Responsible AI for Human-Centric Autonomous Decision-Making Systems [2.444630714797783]
我々は、AIバイアス、定義、検出と緩和の方法、およびバイアスを評価するメトリクスの複雑さをレビューし、議論する。
また、人間中心の意思決定のさまざまな領域におけるAIの信頼性と広範な適用に関して、オープンな課題についても論じる。
論文 参考訳(メタデータ) (2024-08-28T06:04:25Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Knowing About Knowing: An Illusion of Human Competence Can Hinder
Appropriate Reliance on AI Systems [13.484359389266864]
本稿では、Dunning-Kruger Effect(DKE)がAIシステムへの適切な依存を妨げているかどうかを論じる。
DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。
その結果、パフォーマンスを過大評価する参加者は、AIシステムへの信頼度が低い傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-01-25T14:26:10Z) - Who Should I Trust: AI or Myself? Leveraging Human and AI Correctness
Likelihood to Promote Appropriate Trust in AI-Assisted Decision-Making [36.50604819969994]
AIによる意思決定では、人間の意思決定者がいつAIを信頼するか、いつ自分自身を信頼するかを知ることが重要である。
我々は、意思決定モデルを近似し、同様の事例で潜在的なパフォーマンスを計算することで、人間のCLをモデル化した。
我々は,AIによる意思決定プロセスにおいて,ユーザの信頼を明確かつシンプルに調整するための3つのCL活用戦略を提案した。
論文 参考訳(メタデータ) (2023-01-14T02:51:01Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。