論文の概要: Bending the Automation Bias Curve: A Study of Human and AI-based
Decision Making in National Security Contexts
- arxiv url: http://arxiv.org/abs/2306.16507v1
- Date: Wed, 28 Jun 2023 18:57:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 15:56:37.135234
- Title: Bending the Automation Bias Curve: A Study of Human and AI-based
Decision Making in National Security Contexts
- Title(参考訳): 自動バイアス曲線の曲げ - 国家安全保障における人間とAIによる意思決定に関する研究
- Authors: Michael C. Horowitz, Lauren Kahn
- Abstract要約: 私たちは、AIに関する背景知識とAIに対する信頼の関係、自動化バイアスの確率に影響を与える他の要因との相互作用について理論を立てています。
我々は、AI産業のレベルが異なる9カ国の9000人の成人の代表例を対象に、事前登録されたタスク識別実験でテストを行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Uses of artificial intelligence (AI), especially those powered by machine
learning approaches, are growing in sectors and societies around the world. How
will AI adoption proceed, especially in the international security realm?
Research on automation bias suggests that humans can often be overconfident in
AI, whereas research on algorithm aversion shows that, as the stakes of a
decision rise, humans become more cautious about trusting algorithms. We
theorize about the relationship between background knowledge about AI, trust in
AI, and how these interact with other factors to influence the probability of
automation bias in the international security context. We test these in a
preregistered task identification experiment across a representative sample of
9000 adults in 9 countries with varying levels of AI industries. The results
strongly support the theory, especially concerning AI background knowledge. A
version of the Dunning Kruger effect appears to be at play, whereby those with
the lowest level of experience with AI are slightly more likely to be
algorithm-averse, then automation bias occurs at lower levels of knowledge
before leveling off as a respondent's AI background reaches the highest levels.
Additional results show effects from the task's difficulty, overall AI trust,
and whether a human or AI decision aid is described as highly competent or less
competent.
- Abstract(参考訳): ai(artificial intelligence, ai)の利用は、特に機械学習のアプローチによって、世界中のセクターや社会で増加している。
AIの採用は、特に国際セキュリティ分野において、どのように進むのか?
自動化バイアスの研究は、AIにおいて人間が過信される可能性があることを示唆する一方、アルゴリズムの逆転の研究は、決定の利害が高まるにつれて、人間がアルゴリズムを信頼することに対してより慎重になることを示している。
我々は、AIに関する背景知識とAIに対する信頼の関係、そしてこれらが国際セキュリティ文脈における自動化バイアスの確率に影響を与える他の要因とどのように相互作用するかを理論化する。
我々は、AI産業のレベルが異なる9カ国の9000人の成人の代表例を対象に、事前登録されたタスク識別実験でテストを行った。
結果は、特にAIの背景知識に関する理論を強く支持する。
ダニング・クルーガー効果(dunning kruger effect)の1バージョンは、aiを使った経験が最低レベルである人は、アルゴリズムが逆になる確率がわずかに高いため、自動化バイアスは、応答者のaiバックグラウンドが最高レベルに達する前に、知識の低レベルで発生する。
追加の結果は、タスクの難易度、全体的なAI信頼、人間かAIの意思決定支援が非常に有能であるか、あまり有能でないと説明されるかどうかによる影響を示している。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Rolling in the deep of cognitive and AI biases [1.556153237434314]
我々は、AIが設計、開発、デプロイされる状況とは切り離せない社会技術システムとして理解する必要があると論じる。
我々は、人間の認知バイアスがAIフェアネスの概観の中核となる急進的な新しい方法論に従うことで、この問題に対処する。
我々は、人間にAIバイアスを正当化する新しいマッピングを導入し、関連する公正度と相互依存を検出する。
論文 参考訳(メタデータ) (2024-07-30T21:34:04Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Improving Human-AI Collaboration With Descriptions of AI Behavior [14.904401331154062]
人々はAIシステムを使って意思決定を改善するが、しばしばAIの予測を過度に、あるいは過度に予測し、手伝わなかったよりも悪いパフォーマンスをする。
人々がAIアシスタントを適切に頼りにするために、行動記述を示すことを提案する。
論文 参考訳(メタデータ) (2023-01-06T00:33:08Z) - On the Influence of Explainable AI on Automation Bias [0.0]
我々は、説明可能なAI(XAI)によって自動化バイアスに影響を与える可能性に光を当てることを目指している。
ホテルのレビュー分類に関するオンライン実験を行い、最初の結果について議論する。
論文 参考訳(メタデータ) (2022-04-19T12:54:23Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Socially Responsible AI Algorithms: Issues, Purposes, and Challenges [31.382000425295885]
技術者とAI研究者は、信頼できるAIシステムを開発する責任がある。
AIと人間の長期的な信頼を構築するためには、アルゴリズムの公正性を超えて考えることが鍵だ、と私たちは主張する。
論文 参考訳(メタデータ) (2021-01-01T17:34:42Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。