論文の概要: Towards Uncertainty Aware Task Delegation and Human-AI Collaborative Decision-Making
- arxiv url: http://arxiv.org/abs/2505.18066v1
- Date: Fri, 23 May 2025 16:12:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.219285
- Title: Towards Uncertainty Aware Task Delegation and Human-AI Collaborative Decision-Making
- Title(参考訳): 不確実性認識タスクデリゲーションと人間-AI協調意思決定に向けて
- Authors: Min Hun Lee, Martyn Zhe Yu Tok,
- Abstract要約: 本稿では,AIへのタスクデリゲートのための距離ベース不確実性スコアの探索の有用性について検討する。
これらのスコアは、人間とAIによる意思決定のための埋め込み表現によってどのように視覚化されるかを示す。
- 参考スコア(独自算出の注目度): 3.6393552749238673
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite the growing promise of artificial intelligence (AI) in supporting decision-making across domains, fostering appropriate human reliance on AI remains a critical challenge. In this paper, we investigate the utility of exploring distance-based uncertainty scores for task delegation to AI and describe how these scores can be visualized through embedding representations for human-AI decision-making. After developing an AI-based system for physical stroke rehabilitation assessment, we conducted a study with 19 health professionals and 10 students in medicine/health to understand the effect of exploring distance-based uncertainty scores on users' reliance on AI. Our findings showed that distance-based uncertainty scores outperformed traditional probability-based uncertainty scores in identifying uncertain cases. In addition, after exploring confidence scores for task delegation and reviewing embedding-based visualizations of distance-based uncertainty scores, participants achieved an 8.20% higher rate of correct decisions, a 7.15% higher rate of changing their decisions to correct ones, and a 7.14% lower rate of incorrect changes after reviewing AI outputs than those reviewing probability-based uncertainty scores ($p<0.01$). Our findings highlight the potential of distance-based uncertainty scores to enhance decision accuracy and appropriate reliance on AI while discussing ongoing challenges for human-AI collaborative decision-making.
- Abstract(参考訳): ドメイン間の意思決定を支援する人工知能(AI)の公約が拡大しているにもかかわらず、適切な人間によるAIへの依存を促進することは、依然として重要な課題である。
本稿では,AI へのタスクデリゲートのための距離ベース不確実性スコアの探索の有用性について検討し,人間-AI 意思決定のための埋め込み表現を通してこれらのスコアをどのように可視化するかを述べる。
身体的脳卒中リハビリテーションアセスメントのためのAIベースのシステムを開発した後、我々は19人の健康専門家と10人の医学生を対象に、距離に基づく不確実性スコアがAIへの依存に与える影響について調査を行った。
その結果, 距離に基づく不確実性スコアは, 従来の確率に基づく不確実性スコアよりも優れていた。
さらに、タスクデリゲートの信頼性スコアと、距離ベースの不確実性スコアの埋め込みベースの視覚化のレビューを行った後、参加者は正しい決定の率8.20%、正しい決定への変更率7.15%、AI出力のレビュー後の不正な変更率7.14%を、確率ベースの不確実性スコアのレビュー(p<0.01$)よりも達成した。
我々の研究は、人間とAIの協調的意思決定における課題を議論しながら、意思決定精度とAIへの適切な依存を高めるための距離ベースの不確実性スコアの可能性を強調した。
関連論文リスト
- On Benchmarking Human-Like Intelligence in Machines [77.55118048492021]
現在のAI評価パラダイムは、人間のような認知能力を評価するには不十分である、と我々は主張する。
人為的なラベルの欠如、人間の反応の多様性と不確実性の表現の不適切な表現、単純で生態学的に無意味なタスクへの依存。
論文 参考訳(メタデータ) (2025-02-27T20:21:36Z) - Human Decision-making is Susceptible to AI-driven Manipulation [87.24007555151452]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - Human-Alignment Influences the Utility of AI-assisted Decision Making [16.732483972136418]
我々は,アライメントの程度が,AIによる意思決定の有用性に与える影響について検討する。
以上の結果から,AIによる意思決定におけるアライメントの程度と有効性との関連が示唆された。
論文 参考訳(メタデータ) (2025-01-23T19:01:47Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - A Decision Theoretic Framework for Measuring AI Reliance [23.353778024330165]
人間はしばしば人工知能(AI)システムの助けを借りて意思決定をする。
研究者は、補完的なパフォーマンスを達成する上で重要な要素として、人間がAIに適切に依存していることを確認する。
本稿では, 統計的決定理論に基づく信頼の形式的定義を提案し, 意思決定者がAIの推奨に従う確率として信頼の概念を分離する。
論文 参考訳(メタデータ) (2024-01-27T09:13:09Z) - AI Reliance and Decision Quality: Fundamentals, Interdependence, and the Effects of Interventions [6.356355538824237]
私たちは、AIによる意思決定に関する現在の文献で、信頼と意思決定品質が不適切に混ざり合っていると論じています。
我々の研究は、AIによる意思決定における信頼行動と意思決定品質の区別の重要性を強調している。
論文 参考訳(メタデータ) (2023-04-18T08:08:05Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。