論文の概要: Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making
- arxiv url: http://arxiv.org/abs/2001.02114v1
- Date: Tue, 7 Jan 2020 15:33:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 21:00:14.812323
- Title: Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making
- Title(参考訳): 信頼と説明がAI支援意思決定の正確性と信頼度に及ぼす影響
- Authors: Yunfeng Zhang, Q. Vera Liao, Rachel K. E. Bellamy
- Abstract要約: ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
- 参考スコア(独自算出の注目度): 53.62514158534574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today, AI is being increasingly used to help human experts make decisions in
high-stakes scenarios. In these scenarios, full automation is often
undesirable, not only due to the significance of the outcome, but also because
human experts can draw on their domain knowledge complementary to the model's
to ensure task success. We refer to these scenarios as AI-assisted decision
making, where the individual strengths of the human and the AI come together to
optimize the joint decision outcome. A key to their success is to appropriately
\textit{calibrate} human trust in the AI on a case-by-case basis; knowing when
to trust or distrust the AI allows the human expert to appropriately apply
their knowledge, improving decision outcomes in cases where the model is likely
to perform poorly. This research conducts a case study of AI-assisted decision
making in which humans and AI have comparable performance alone, and explores
whether features that reveal case-specific model information can calibrate
trust and improve the joint performance of the human and AI. Specifically, we
study the effect of showing confidence score and local explanation for a
particular prediction. Through two human experiments, we show that confidence
score can help calibrate people's trust in an AI model, but trust calibration
alone is not sufficient to improve AI-assisted decision making, which may also
depend on whether the human can bring in enough unique knowledge to complement
the AI's errors. We also highlight the problems in using local explanation for
AI-assisted decision making scenarios and invite the research community to
explore new approaches to explainability for calibrating human trust in AI.
- Abstract(参考訳): 今日では、AIは人間の専門家が高いシナリオで意思決定するのを助けるためにますます使われています。
これらのシナリオでは、完全な自動化は多くの場合望ましくないものであり、結果の重要さだけでなく、人間の専門家がタスクの成功を保証するためにモデルに相補的なドメイン知識を引き出すことができるからです。
これらのシナリオをAIによる意思決定と呼び、人間とAIの個々の強みが集まって、共同決定結果を最適化します。
彼らの成功の鍵は、aiの人間的信頼をケースバイケースで適切に\textit{calibrate}することである;いつ信頼するか不信かを知ることによって、aiの専門家は、その知識を適切に適用し、モデルがうまく機能しない場合の意思決定結果を改善することができる。
この研究は、人間とAIが同等のパフォーマンスを持つAI支援意思決定のケーススタディを行い、ケース固有のモデル情報を明らかにする特徴が、人間とAIの共同パフォーマンスを校正し改善するかどうかを探る。
具体的には,特定の予測に対する信頼性スコアと局所的説明の効果について検討する。
2つの人間実験を通して、信頼スコアはAIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけではAIによる意思決定を改善するには不十分です。
また、AI支援意思決定シナリオに局所的な説明を使用することの問題点を強調し、AIに対する人間の信頼を校正するための説明可能性に関する新たなアプローチを研究コミュニティに求めます。
関連論文リスト
- On the Interdependence of Reliance Behavior and Accuracy in AI-Assisted
Decision-Making [0.0]
我々は,AIによる意思決定における信頼行動と精度の相互依存性を分析する。
この相互依存をより具体化するための視覚的枠組みを提案する。
論文 参考訳(メタデータ) (2023-04-18T08:08:05Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく調べて、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析し、社会的ストレス要因として機能する。
我々は、AIの公正性を改善するための現在の戦略を検討し、現実の展開の観点からその限界を評価し、社会のかなりの部分を損なうことなくAIの利益を享受するための潜在的な道を探る。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Who Should I Trust: AI or Myself? Leveraging Human and AI Correctness
Likelihood to Promote Appropriate Trust in AI-Assisted Decision-Making [36.50604819969994]
AIによる意思決定では、人間の意思決定者がいつAIを信頼するか、いつ自分自身を信頼するかを知ることが重要である。
我々は、意思決定モデルを近似し、同様の事例で潜在的なパフォーマンスを計算することで、人間のCLをモデル化した。
我々は,AIによる意思決定プロセスにおいて,ユーザの信頼を明確かつシンプルに調整するための3つのCL活用戦略を提案した。
論文 参考訳(メタデータ) (2023-01-14T02:51:01Z) - Best-Response Bayesian Reinforcement Learning with Bayes-adaptive POMDPs
for Centaurs [22.52332536886295]
本稿では,人間とAIの相互作用を逐次ゲームとして新たに定式化する。
このケースでは、有界人間によるより良い意思決定を支援するというAIの問題は、ベイズ対応のPOMDPに還元される。
我々は、機械が自身の限界と人間の助けを借りて改善する方法について議論する。
論文 参考訳(メタデータ) (2022-04-03T21:00:51Z) - The Response Shift Paradigm to Quantify Human Trust in AI
Recommendations [6.652641137999891]
説明可能性、解釈可能性、そしてそれらがAIシステムに対する人間の信頼にどれほど影響するかは、究極的には機械学習と同じくらいの人間の認知の問題である。
我々は,AIレコメンデーションが人的決定に与える影響を定量化する汎用のヒューマン・AIインタラクション・パラダイムを開発し,検証した。
我々の実証・実証パラダイムは、急速に成長するXAI/IAIアプローチをエンドユーザーへの影響の観点から定量的に比較することができる。
論文 参考訳(メタデータ) (2022-02-16T22:02:09Z) - Uncalibrated Models Can Improve Human-AI Collaboration [10.106324182884068]
私たちは、AIモデルを実際によりも自信を持って提示することで、人間-AIのパフォーマンスが向上することを示した。
私たちはまず、何千もの人間のインタラクションのデータを使って、人間がAIアドバイスを組み込む方法のモデルを学びます。
論文 参考訳(メタデータ) (2022-02-12T04:51:00Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making [46.625616262738404]
我々は、認知科学の分野からの知識を用いて、人間とAIの協調的な意思決定設定における認知バイアスを考慮します。
私たちは、人間とAIのコラボレーションでよく見られるバイアスであるバイアスのアンカーに特に焦点を当てています。
論文 参考訳(メタデータ) (2020-10-15T22:25:41Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。