論文の概要: AI Oversight and Human Mistakes: Evidence from Centre Court
- arxiv url: http://arxiv.org/abs/2401.16754v1
- Date: Tue, 30 Jan 2024 05:22:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 16:07:19.247988
- Title: AI Oversight and Human Mistakes: Evidence from Centre Court
- Title(参考訳): AIの監視と人間のミス - 中央裁判所による証拠
- Authors: David Almog, Romain Gauriot, Lionel Page, Daniel Martin
- Abstract要約: トップテニストーナメントにおける審判のホークアイレビューについて検討する。
我々は,Hawk-Eyeレビュー導入後,審判が全体の誤り率を下げていることを発見した。
我々は、合理的な意図しない審判のモデルを用いて、AIによって引き抜かれた心理的コストを見積もる。
- 参考スコア(独自算出の注目度): 1.417373050337415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Powered by the increasing predictive capabilities of machine learning
algorithms, artificial intelligence (AI) systems have begun to be used to
overrule human mistakes in many settings. We provide the first field evidence
this AI oversight carries psychological costs that can impact human
decision-making. We investigate one of the highest visibility settings in which
AI oversight has occurred: the Hawk-Eye review of umpires in top tennis
tournaments. We find that umpires lowered their overall mistake rate after the
introduction of Hawk-Eye review, in line with rational inattention given
psychological costs of being overruled by AI. We also find that umpires
increased the rate at which they called balls in, which produced a shift from
making Type II errors (calling a ball out when in) to Type I errors (calling a
ball in when out). We structurally estimate the psychological costs of being
overruled by AI using a model of rational inattentive umpires, and our results
suggest that because of these costs, umpires cared twice as much about Type II
errors under AI oversight.
- Abstract(参考訳): 機械学習アルゴリズムの予測能力の増大によって、人工知能(AI)システムは、多くの環境で人間のミスを克服するために使われ始めている。
我々は、このAIが人間の意思決定に影響を及ぼす心理的コストを負っていることを示す最初の現場証拠を提供する。
我々は、トップテニストーナメントにおける審判のHawk-Eyeレビューにおいて、AIが監視した最も高い視界設定の一つを調査した。
審判は、AIに圧倒される心理的コストを考慮し、合理的な不注意を伴って、ホークアイレビュー導入後の全体的な誤り率を下げた。
また, 審判員は, ボールの呼び出し頻度を増大させ, タイプIIのエラー(イン時にボールを呼び出す)からタイプIのエラー(アウト時にボールを呼び出す)へのシフトを引き起こした。
我々は、合理的な意図しない審判員のモデルを用いて、AIによって引き起こされる心理的コストを構造的に推定し、その結果、審判員はAI監督下でタイプIIのエラーについて2倍の注意を払っていたことを示唆した。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Adversarial Policies Beat Superhuman Go AIs [54.15639517188804]
我々は,現在最先端の囲碁AIシステムであるKataGoを,敵の政策を訓練することによって攻撃する。
敵は囲碁を上手に弾くことで勝てない。かたごを騙して真剣な失敗を犯す。
我々の結果は、超人的AIシステムでさえ、驚くほどの障害モードを持っていることを実証している。
論文 参考訳(メタデータ) (2022-11-01T03:13:20Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - "Weak AI" is Likely to Never Become "Strong AI", So What is its Greatest
Value for us? [4.497097230665825]
多くの研究者は、ここ数十年でAIがほとんど進歩していないと主張している。
著者は、AIに関する議論が存在する理由を説明します。(2)「弱いAI」と「強いAI」と呼ばれる2つのAI研究パラダイムを区別します。
論文 参考訳(メタデータ) (2021-03-29T02:57:48Z) - Artificial Intelligence is stupid and causal reasoning won't fix it [0.0]
Judea Pearl氏が提案するキーは、推論を因果推論と関連付けることで置き換えることだ。
AIマシーンが因果関係を把握できないというほどではないが、AIマシーン – 準計算 – はまったく理解できない。
論文 参考訳(メタデータ) (2020-07-20T22:23:50Z) - AI Failures: A Review of Underlying Issues [0.0]
私たちは、概念化、設計、デプロイメントの欠陥を考慮して、AIの失敗に焦点を当てています。
AIシステムは、AIシステムの設計において、欠落とコミッショニングエラーのために失敗する。
AIシステムは、事実上道徳的な判断を下すことが求められる状況で、かなり失敗する可能性が高い。
論文 参考訳(メタデータ) (2020-07-18T15:31:29Z) - Towards AI Forensics: Did the Artificial Intelligence System Do It? [2.5991265608180396]
私たちは、デザインとグレーボックス分析によって潜在的に悪意のあるAIに焦点を当てています。
畳み込みニューラルネットワークによる評価は、悪意のあるAIを特定する上での課題とアイデアを示している。
論文 参考訳(メタデータ) (2020-05-27T20:28:19Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。