論文の概要: Accuracy-Time Tradeoffs in AI-Assisted Decision Making under Time
Pressure
- arxiv url: http://arxiv.org/abs/2306.07458v3
- Date: Sun, 11 Feb 2024 16:22:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 00:40:04.989489
- Title: Accuracy-Time Tradeoffs in AI-Assisted Decision Making under Time
Pressure
- Title(参考訳): 時間圧力下におけるAI支援意思決定における高精度時間トレードオフ
- Authors: Siddharth Swaroop, Zana Bu\c{c}inca, Krzysztof Z. Gajos, Finale
Doshi-Velez
- Abstract要約: 時間のプレッシャーが、ユーザーが異なるAIアシストを使用する方法にどのように影響するかを示す。
また、ユーザの過度信頼率が、ユーザの行動の重要な予測要因であることもわかりました。
全体として、我々の研究は、AIアシストは時間圧が全くないのに比べて、時間圧下にあるときの精度と時間のトレードオフが異なることを示唆している。
- 参考スコア(独自算出の注目度): 31.723686787975687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In settings where users both need high accuracy and are time-pressured, such
as doctors working in emergency rooms, we want to provide AI assistance that
both increases decision accuracy and reduces decision-making time. Current
literature focusses on how users interact with AI assistance when there is no
time pressure, finding that different AI assistances have different benefits:
some can reduce time taken while increasing overreliance on AI, while others do
the opposite. The precise benefit can depend on both the user and task. In
time-pressured scenarios, adapting when we show AI assistance is especially
important: relying on the AI assistance can save time, and can therefore be
beneficial when the AI is likely to be right. We would ideally adapt what AI
assistance we show depending on various properties (of the task and of the
user) in order to best trade off accuracy and time. We introduce a study where
users have to answer a series of logic puzzles. We find that time pressure
affects how users use different AI assistances, making some assistances more
beneficial than others when compared to no-time-pressure settings. We also find
that a user's overreliance rate is a key predictor of their behaviour:
overreliers and not-overreliers use different AI assistance types differently.
We find marginal correlations between a user's overreliance rate (which is
related to the user's trust in AI recommendations) and their personality traits
(Big Five Personality traits). Overall, our work suggests that AI assistances
have different accuracy-time tradeoffs when people are under time pressure
compared to no time pressure, and we explore how we might adapt AI assistances
in this setting.
- Abstract(参考訳): 緊急治療室で働く医師など、ユーザが高い精度と時間的プレッシャーを必要とする環境では、意思決定の精度を高め、意思決定時間を短縮するAI支援を提供したいと思っています。
現在の文献では、時間的なプレッシャーがなければ、ユーザーがaiアシスタントとどのように対話するかに注目し、異なるaiアシスタンスに異なるメリットがあることを見出している。
正確なメリットは、ユーザとタスクの両方に依存します。
タイムプレッシャーのあるシナリオでは、AIアシストを示すときの適応が特に重要である。
私たちは、正確さと時間を最大限に引き離すために、さまざまな特性(タスクとユーザの)に依存するAIアシストを理想的に適応させます。
本稿では,ユーザが一連の論理パズルに答えなければならない研究を紹介する。
私たちは、時間のプレッシャーが、ユーザーが異なるAIアシストを使用する方法に影響することに気付きました。
オーバーリアーとnot-overrelierは異なるaiアシスタンスタイプを使用しています。
ユーザの信頼度(AIレコメンデーションに対するユーザの信頼度)と人格特性(大きな5人格特性)との間には,限界的な相関関係が認められた。
全体として、我々の研究は、AIアシストは時間的プレッシャーのない人に比べて、時間的プレッシャー下にあるときの精度と時間のトレードオフが異なることを示唆している。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Comparing Zealous and Restrained AI Recommendations in a Real-World Human-AI Collaboration Task [11.040918613968854]
正確さとリコールのトレードオフを慎重に活用することで、チームのパフォーマンスが大幅に向上する、と私たちは主張する。
我々は、a)AIアシストなし、b)高精度な「制限された」AI、c)3,466時間以上のアノテーション作業で、78のプロのアノテータのパフォーマンスを分析する。
論文 参考訳(メタデータ) (2024-10-06T23:19:19Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - The Role of Heuristics and Biases During Complex Choices with an AI
Teammate [0.0]
古典的な実験手法は、AIヘルパーによる複雑な選択を研究するには不十分である、と我々は主張する。
我々は、フレーミングとアンカー効果が、人々がAIヘルパーと一緒に働く方法に影響を与え、選択結果を予測することを示した。
論文 参考訳(メタデータ) (2023-01-14T20:06:43Z) - Improving Human-AI Collaboration With Descriptions of AI Behavior [14.904401331154062]
人々はAIシステムを使って意思決定を改善するが、しばしばAIの予測を過度に、あるいは過度に予測し、手伝わなかったよりも悪いパフォーマンスをする。
人々がAIアシスタントを適切に頼りにするために、行動記述を示すことを提案する。
論文 参考訳(メタデータ) (2023-01-06T00:33:08Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Does the Whole Exceed its Parts? The Effect of AI Explanations on
Complementary Team Performance [44.730580857733]
以前の研究では、AIが人間と最高のチームの両方を上回った場合にのみ、説明による改善が観察された。
我々は、3つのデータセットで混合メソッドのユーザー研究を行い、人間に匹敵する精度のAIが、参加者のタスク解決に役立ちます。
説明は、人間がAIの推奨を受け入れる可能性を高める。
論文 参考訳(メタデータ) (2020-06-26T03:34:04Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。