論文の概要: Adjust for Trust: Mitigating Trust-Induced Inappropriate Reliance on AI Assistance
- arxiv url: http://arxiv.org/abs/2502.13321v1
- Date: Tue, 18 Feb 2025 22:42:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 14:01:15.173912
- Title: Adjust for Trust: Mitigating Trust-Induced Inappropriate Reliance on AI Assistance
- Title(参考訳): 信頼の調整:AI支援に対する信頼による不適切な信頼の軽減
- Authors: Tejas Srinivasan, Jesse Thomason,
- Abstract要約: 信頼は、AI支援意思決定タスクにおけるAIレコメンデーションへのユーザの依存度をバイアスする。
我々は,信頼と適応の介入を通じて,AIアシスタントが行動に適応するように提案する。
- 参考スコア(独自算出の注目度): 8.932047775602927
- License:
- Abstract: Trust biases how users rely on AI recommendations in AI-assisted decision-making tasks, with low and high levels of trust resulting in increased under- and over-reliance, respectively. We propose that AI assistants should adapt their behavior through trust-adaptive interventions to mitigate such inappropriate reliance. For instance, when user trust is low, providing an explanation can elicit more careful consideration of the assistant's advice by the user. In two decision-making scenarios -- laypeople answering science questions and doctors making medical diagnoses -- we find that providing supporting and counter-explanations during moments of low and high trust, respectively, yields up to 38% reduction in inappropriate reliance and 20% improvement in decision accuracy. We are similarly able to reduce over-reliance by adaptively inserting forced pauses to promote deliberation. Our results highlight how AI adaptation to user trust facilitates appropriate reliance, presenting exciting avenues for improving human-AI collaboration.
- Abstract(参考訳): 信頼は、AI支援意思決定タスクにおけるAIレコメンデーションへの依存度に偏りがあり、信頼度は低く、信頼度は低い。
このような不適切な依存を軽減するために、信頼適応的介入を通じてAIアシスタントが行動に適応すべきである。
例えば、ユーザの信頼度が低い場合には、説明を提供することによって、ユーザによるアシスタントのアドバイスをより慎重に検討することができる。
2つの意思決定シナリオ – 科学的な疑問に回答し、医師が診断を下す – では、信頼度が低く、信頼度が高い瞬間にそれぞれ支援と反説明を提供することで、不適切な信頼度が最大38%減少し、意思決定精度が20%向上する。
同様に、検討を促進するために強制停止を適応的に挿入することで、過度な信頼性を低減できます。
我々の結果は、AIによるユーザ信頼への適応が適切な信頼を促進する方法を強調し、人間とAIのコラボレーションを改善するためのエキサイティングな道を示す。
関連論文リスト
- Overconfident and Unconfident AI Hinder Human-AI Collaboration [5.480154202794587]
本研究は,AIに対するユーザの信頼度,AIアドバイスの採用,コラボレーション結果に及ぼすAI信頼度の影響について検討する。
信頼度調整支援の欠如は、未調整の信頼度の検出を困難にすることでこの問題を悪化させる。
我々の研究は、人間とAIのコラボレーションを強化するためのAI信頼度校正の重要性を強調した。
論文 参考訳(メタデータ) (2024-02-12T13:16:30Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Knowing About Knowing: An Illusion of Human Competence Can Hinder
Appropriate Reliance on AI Systems [13.484359389266864]
本稿では、Dunning-Kruger Effect(DKE)がAIシステムへの適切な依存を妨げているかどうかを論じる。
DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。
その結果、パフォーマンスを過大評価する参加者は、AIシステムへの信頼度が低い傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-01-25T14:26:10Z) - Who Should I Trust: AI or Myself? Leveraging Human and AI Correctness
Likelihood to Promote Appropriate Trust in AI-Assisted Decision-Making [36.50604819969994]
AIによる意思決定では、人間の意思決定者がいつAIを信頼するか、いつ自分自身を信頼するかを知ることが重要である。
我々は、意思決定モデルを近似し、同様の事例で潜在的なパフォーマンスを計算することで、人間のCLをモデル化した。
我々は,AIによる意思決定プロセスにおいて,ユーザの信頼を明確かつシンプルに調整するための3つのCL活用戦略を提案した。
論文 参考訳(メタデータ) (2023-01-14T02:51:01Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。