論文の概要: Will We Trust What We Don't Understand? Impact of Model Interpretability
and Outcome Feedback on Trust in AI
- arxiv url: http://arxiv.org/abs/2111.08222v1
- Date: Tue, 16 Nov 2021 04:35:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 15:26:30.327056
- Title: Will We Trust What We Don't Understand? Impact of Model Interpretability
and Outcome Feedback on Trust in AI
- Title(参考訳): 理解できないものを信頼するのか?
モデル解釈可能性とアウトカムフィードバックがAIの信頼に及ぼす影響
- Authors: Daehwan Ahn (1), Abdullah Almaatouq (2), Monisha Gulabani (1), Kartik
Hosanagar (1) ((1) The Wharton School, University of Pennsylvania (2) Sloan
School of Management, Massachusetts Institute of Technology)
- Abstract要約: 我々は、AI支援予測タスクにおける、解釈可能性と結果フィードバックがAIの信頼度および人的パフォーマンスに与える影響を分析する。
解釈可能性によって信頼性が向上することはなく、結果のフィードバックははるかに大きく、信頼性が高くなりました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite AI's superhuman performance in a variety of domains, humans are often
unwilling to adopt AI systems. The lack of interpretability inherent in many
modern AI techniques is believed to be hurting their adoption, as users may not
trust systems whose decision processes they do not understand. We investigate
this proposition with a novel experiment in which we use an interactive
prediction task to analyze the impact of interpretability and outcome feedback
on trust in AI and on human performance in AI-assisted prediction tasks. We
find that interpretability led to no robust improvements in trust, while
outcome feedback had a significantly greater and more reliable effect. However,
both factors had modest effects on participants' task performance. Our findings
suggest that (1) factors receiving significant attention, such as
interpretability, may be less effective at increasing trust than factors like
outcome feedback, and (2) augmenting human performance via AI systems may not
be a simple matter of increasing trust in AI, as increased trust is not always
associated with equally sizable improvements in performance. These findings
invite the research community to focus not only on methods for generating
interpretations but also on techniques for ensuring that interpretations impact
trust and performance in practice.
- Abstract(参考訳): 様々な領域におけるAIの超人的性能にもかかわらず、人間はAIシステムを採用することを望まないことが多い。
多くの現代のAI技術に固有の解釈可能性の欠如は、ユーザが理解できない意思決定プロセスのシステムを信頼できないため、採用を損なうと考えられている。
本研究では,ai支援予測タスクにおける解釈可能性と結果フィードバックがaiの信頼と人的パフォーマンスに与える影響を,対話型予測タスクを用いて解析する実験を行った。
解釈可能性によって信頼性が向上することはなく、結果のフィードバックははるかに大きく、信頼性が高くなりました。
しかし,いずれの要因も参加者の作業性能に少なからぬ影響を及ぼした。
以上の結果から,(1)可読性などの重要な注意を引いた要因は,結果フィードバックなどの要因よりも信頼の向上に効果が低下する可能性があり,(2)aiシステムによるヒューマンパフォーマンスの強化は,aiに対する信頼の増大という単純な問題ではない可能性が示唆された。
これらの発見により、研究コミュニティは、解釈を生成する方法だけでなく、解釈が実際の信頼とパフォーマンスに影響を及ぼすことを保証する技術にも焦点を合わせることが求められる。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - To Err Is AI! Debugging as an Intervention to Facilitate Appropriate Reliance on AI Systems [11.690126756498223]
最適な人間とAIのコラボレーションのためのビジョンは、人間のAIシステムへの「適切な依存」を必要とする。
実際には、アウト・オブ・ディストリビューションデータにおける機械学習モデルの性能格差は、データセット固有のパフォーマンスフィードバックを信頼できないものにしている。
論文 参考訳(メタデータ) (2024-09-22T09:43:27Z) - Trust in AI: Progress, Challenges, and Future Directions [6.724854390957174]
私たちの日常生活における人工知能(AI)システムの利用の増加は、ユーザの視点からAIにおける信頼と不信の重要性を説明してくれます。
AIにおける信頼/不信は規制官の役割を担い、この拡散のレベルを著しく制御することができる。
論文 参考訳(メタデータ) (2024-03-12T20:26:49Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Knowing About Knowing: An Illusion of Human Competence Can Hinder
Appropriate Reliance on AI Systems [13.484359389266864]
本稿では、Dunning-Kruger Effect(DKE)がAIシステムへの適切な依存を妨げているかどうかを論じる。
DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。
その結果、パフォーマンスを過大評価する参加者は、AIシステムへの信頼度が低い傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-01-25T14:26:10Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust in AI and Its Role in the Acceptance of AI Technologies [12.175031903660972]
本稿では,AI技術を利用する意図に対する信頼の役割を説明する。
調査1では,大学生の質問応答に基づくAI音声アシスタントの利用における信頼感の役割について検討した。
調査2では、米国住民の代表サンプルのデータを用いて、異なる信頼の次元について検討した。
論文 参考訳(メタデータ) (2022-03-23T19:18:19Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。