論文の概要: AI Oversight and Human Mistakes: Evidence from Centre Court
- arxiv url: http://arxiv.org/abs/2401.16754v3
- Date: Wed, 12 Feb 2025 23:28:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:46:28.183399
- Title: AI Oversight and Human Mistakes: Evidence from Centre Court
- Title(参考訳): AIの監視と人間のミス - 中央裁判所による証拠
- Authors: David Almog, Romain Gauriot, Lionel Page, Daniel Martin,
- Abstract要約: 我々は、AIの監視が人間の意思決定に影響を及ぼすという最初の現場証拠を提供する。
我々は、AIが監視している最も高い視界の1つを調査する。
審判は、ホークアイのレビュー導入後に全体的なミス率を下げただけでなく、審判がボールを呼んだ率を上げたこともわかりました。
- 参考スコア(独自算出の注目度): 1.2974519529978974
- License:
- Abstract: Powered by the increasing predictive capabilities of machine learning algorithms, artificial intelligence (AI) systems have the potential to overrule human mistakes in many settings. We provide the first field evidence that the use of AI oversight can impact human decision-making. We investigate one of the highest visibility settings where AI oversight has occurred: Hawk-Eye review of umpires in top tennis tournaments. We find that umpires lowered their overall mistake rate after the introduction of Hawk-Eye review, but also that umpires increased the rate at which they called balls in, producing a shift from making Type II errors (calling a ball out when in) to Type I errors (calling a ball in when out). We structurally estimate the psychological costs of being overruled by AI using a model of attention-constrained umpires, and our results suggest that because of these costs, umpires cared 37% more about Type II errors under AI oversight.
- Abstract(参考訳): 機械学習アルゴリズムの予測能力の増大によって、人工知能(AI)システムは、多くの設定で人間のミスを克服する可能性がある。
我々は、AIの監視が人間の意思決定に影響を及ぼすという最初の現場証拠を提供する。
我々は、AIが監視している最も高い視界の1つを調査する。
また,Hawk-Eyeレビュー導入後,審判が全体の誤り率を下げたことも確認できた。また,審判がボールの呼び出し率を高めて,タイプIIエラー(イン時にボールを呼び出す)からタイプIエラー(アウト時にボールを呼び出す)にシフトしたことも判明した。
我々は、注意拘束された審判員のモデルを用いて、AIによって引き起こされる心理的コストを構造的に推定し、これらのコストのため、審判員はAI監督下でのタイプIIエラーについて37%の注意を払っていたことを示唆した。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - Epistemic considerations when AI answers questions for us [0.0]
我々は、我々の質問に答え、アウトプットを判断するためにAIに不注意に依存することは、グレースの「品質の最大」と「レモインの法的な「無実の最高」に違反していると主張している。
AIが生成し、AIが評価したコンテンツのアウトプットと結果に重点を置いていないのは、適切なトリビュートを支払うことを除けば、人の思考プロセスに従うことの要求である。
論文 参考訳(メタデータ) (2023-04-23T08:26:42Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Adversarial Policies Beat Superhuman Go AIs [54.15639517188804]
我々は,現在最先端の囲碁AIシステムであるKataGoを,敵の政策を訓練することによって攻撃する。
敵は囲碁を上手に弾くことで勝てない。かたごを騙して真剣な失敗を犯す。
我々の結果は、超人的AIシステムでさえ、驚くほどの障害モードを持っていることを実証している。
論文 参考訳(メタデータ) (2022-11-01T03:13:20Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Artificial Intelligence is stupid and causal reasoning won't fix it [0.0]
Judea Pearl氏が提案するキーは、推論を因果推論と関連付けることで置き換えることだ。
AIマシーンが因果関係を把握できないというほどではないが、AIマシーン – 準計算 – はまったく理解できない。
論文 参考訳(メタデータ) (2020-07-20T22:23:50Z) - AI Failures: A Review of Underlying Issues [0.0]
私たちは、概念化、設計、デプロイメントの欠陥を考慮して、AIの失敗に焦点を当てています。
AIシステムは、AIシステムの設計において、欠落とコミッショニングエラーのために失敗する。
AIシステムは、事実上道徳的な判断を下すことが求められる状況で、かなり失敗する可能性が高い。
論文 参考訳(メタデータ) (2020-07-18T15:31:29Z) - Towards AI Forensics: Did the Artificial Intelligence System Do It? [2.5991265608180396]
私たちは、デザインとグレーボックス分析によって潜在的に悪意のあるAIに焦点を当てています。
畳み込みニューラルネットワークによる評価は、悪意のあるAIを特定する上での課題とアイデアを示している。
論文 参考訳(メタデータ) (2020-05-27T20:28:19Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。