論文の概要: Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making
- arxiv url: http://arxiv.org/abs/2001.02114v1
- Date: Tue, 7 Jan 2020 15:33:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 21:00:14.812323
- Title: Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making
- Title(参考訳): 信頼と説明がAI支援意思決定の正確性と信頼度に及ぼす影響
- Authors: Yunfeng Zhang, Q. Vera Liao, Rachel K. E. Bellamy
- Abstract要約: ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
- 参考スコア(独自算出の注目度): 53.62514158534574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today, AI is being increasingly used to help human experts make decisions in
high-stakes scenarios. In these scenarios, full automation is often
undesirable, not only due to the significance of the outcome, but also because
human experts can draw on their domain knowledge complementary to the model's
to ensure task success. We refer to these scenarios as AI-assisted decision
making, where the individual strengths of the human and the AI come together to
optimize the joint decision outcome. A key to their success is to appropriately
\textit{calibrate} human trust in the AI on a case-by-case basis; knowing when
to trust or distrust the AI allows the human expert to appropriately apply
their knowledge, improving decision outcomes in cases where the model is likely
to perform poorly. This research conducts a case study of AI-assisted decision
making in which humans and AI have comparable performance alone, and explores
whether features that reveal case-specific model information can calibrate
trust and improve the joint performance of the human and AI. Specifically, we
study the effect of showing confidence score and local explanation for a
particular prediction. Through two human experiments, we show that confidence
score can help calibrate people's trust in an AI model, but trust calibration
alone is not sufficient to improve AI-assisted decision making, which may also
depend on whether the human can bring in enough unique knowledge to complement
the AI's errors. We also highlight the problems in using local explanation for
AI-assisted decision making scenarios and invite the research community to
explore new approaches to explainability for calibrating human trust in AI.
- Abstract(参考訳): 今日では、AIは人間の専門家が高いシナリオで意思決定するのを助けるためにますます使われています。
これらのシナリオでは、完全な自動化は多くの場合望ましくないものであり、結果の重要さだけでなく、人間の専門家がタスクの成功を保証するためにモデルに相補的なドメイン知識を引き出すことができるからです。
これらのシナリオをAIによる意思決定と呼び、人間とAIの個々の強みが集まって、共同決定結果を最適化します。
彼らの成功の鍵は、aiの人間的信頼をケースバイケースで適切に\textit{calibrate}することである;いつ信頼するか不信かを知ることによって、aiの専門家は、その知識を適切に適用し、モデルがうまく機能しない場合の意思決定結果を改善することができる。
この研究は、人間とAIが同等のパフォーマンスを持つAI支援意思決定のケーススタディを行い、ケース固有のモデル情報を明らかにする特徴が、人間とAIの共同パフォーマンスを校正し改善するかどうかを探る。
具体的には,特定の予測に対する信頼性スコアと局所的説明の効果について検討する。
2つの人間実験を通して、信頼スコアはAIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけではAIによる意思決定を改善するには不十分です。
また、AI支援意思決定シナリオに局所的な説明を使用することの問題点を強調し、AIに対する人間の信頼を校正するための説明可能性に関する新たなアプローチを研究コミュニティに求めます。
関連論文リスト
- Human-Alignment Influences the Utility of AI-assisted Decision Making [16.732483972136418]
我々は,アライメントの程度が,AIによる意思決定の有用性に与える影響について検討する。
以上の結果から,AIによる意思決定におけるアライメントの程度と有効性との関連が示唆された。
論文 参考訳(メタデータ) (2025-01-23T19:01:47Z) - As Confidence Aligns: Exploring the Effect of AI Confidence on Human Self-confidence in Human-AI Decision Making [37.192236418976265]
人間とAIの意思決定では、ユーザーの自信はAIの信頼と一致し、AIが関与しなくなった後もそのようなアライメントは継続できる。
意思決定におけるリアルタイムの正当性フィードバックの存在は、アライメントの度合いを低下させた。
論文 参考訳(メタデータ) (2025-01-22T13:25:14Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Training Towards Critical Use: Learning to Situate AI Predictions
Relative to Human Knowledge [22.21959942886099]
我々は、人間がAIモデルでは利用できない知識に対してAI予測をシチュレートする能力を集中させる「クリティカルユース」と呼ばれるプロセス指向の適切な依存の概念を紹介します。
我々は、児童虐待スクリーニングという複雑な社会的意思決定環境でランダム化オンライン実験を行う。
参加者にAIによる意思決定を実践する、迅速で低い機会を提供することによって、初心者は、経験豊富な労働者に類似したAIとの不一致のパターンを示すようになった。
論文 参考訳(メタデータ) (2023-08-30T01:54:31Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Who Should I Trust: AI or Myself? Leveraging Human and AI Correctness
Likelihood to Promote Appropriate Trust in AI-Assisted Decision-Making [36.50604819969994]
AIによる意思決定では、人間の意思決定者がいつAIを信頼するか、いつ自分自身を信頼するかを知ることが重要である。
我々は、意思決定モデルを近似し、同様の事例で潜在的なパフォーマンスを計算することで、人間のCLをモデル化した。
我々は,AIによる意思決定プロセスにおいて,ユーザの信頼を明確かつシンプルに調整するための3つのCL活用戦略を提案した。
論文 参考訳(メタデータ) (2023-01-14T02:51:01Z) - Uncalibrated Models Can Improve Human-AI Collaboration [10.106324182884068]
私たちは、AIモデルを実際によりも自信を持って提示することで、人間-AIのパフォーマンスが向上することを示した。
私たちはまず、何千もの人間のインタラクションのデータを使って、人間がAIアドバイスを組み込む方法のモデルを学びます。
論文 参考訳(メタデータ) (2022-02-12T04:51:00Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。