論文の概要: Decision-makers Processing of AI Algorithmic Advice: Automation Bias
versus Selective Adherence
- arxiv url: http://arxiv.org/abs/2103.02381v1
- Date: Wed, 3 Mar 2021 13:10:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 14:52:14.869955
- Title: Decision-makers Processing of AI Algorithmic Advice: Automation Bias
versus Selective Adherence
- Title(参考訳): AIアルゴリズムアドバイスの意思決定者処理:自動化バイアスと選択的適応
- Authors: Saar Alon-Barkat and Madalina Busuioc
- Abstract要約: 主な懸念は、アルゴリズムに対する人間の過度な信頼は、人間とアルゴリズムの相互作用に新しいバイアスをもたらすことである。
第2の懸念は、意思決定者が既存の信念やステレオタイプと一致した場合、アルゴリズム的なアドバイスを選択的に採用する傾向にある。
オランダにおける学校教師の雇用に関する決定におけるアルゴリズム的アドバイスの使用をシミュレートする2つの研究を通して、これらを評価する。
選択的、偏りのある遵守の私たちの発見は、公共部門でアルゴリズムの使用を推し進めた中立性の約束です。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificial intelligence algorithms are increasingly adopted as decisional
aides by public organisations, with the promise of overcoming biases of human
decision-makers. At the same time, the use of algorithms may introduce new
biases in the human-algorithm interaction. A key concern emerging from
psychology studies regards human overreliance on algorithmic advice even in the
face of warning signals and contradictory information from other sources
(automation bias). A second concern regards decision-makers inclination to
selectively adopt algorithmic advice when it matches their pre-existing beliefs
and stereotypes (selective adherence). To date, we lack rigorous empirical
evidence about the prevalence of these biases in a public sector context. We
assess these via two pre-registered experimental studies (N=1,509), simulating
the use of algorithmic advice in decisions pertaining to the employment of
school teachers in the Netherlands. In study 1, we test automation bias by
exploring participants adherence to a prediction of teachers performance, which
contradicts additional evidence, while comparing between two types of
predictions: algorithmic v. human-expert. We do not find evidence for
automation bias. In study 2, we replicate these findings, and we also test
selective adherence by manipulating the teachers ethnic background. We find a
propensity for adherence when the advice predicts low performance for a teacher
of a negatively stereotyped ethnic minority, with no significant differences
between algorithmic and human advice. Overall, our findings of selective,
biased adherence belie the promise of neutrality that has propelled algorithm
use in the public sector.
- Abstract(参考訳): 人工知能アルゴリズムは、人間の意思決定者の偏見を克服する約束として、公共組織による意思決定補助としてますます採用されている。
同時に、アルゴリズムの使用は、人間とアルゴリズムの相互作用に新たなバイアスをもたらす可能性がある。
心理学の研究では、警告信号や他の情報源からの矛盾する情報(自動バイアス)に対してさえ、人間のアルゴリズム的アドバイスへの過度な依存が懸念されている。
第2の懸念は、意思決定者が既存の信念やステレオタイプ(選択的執着)に合致するアルゴリズム的アドバイスを選択的に採用する傾向があることである。
現在まで、公共セクターの状況におけるこれらのバイアスの有病率に関する厳格な実証的証拠が欠けています。
オランダにおける学校教師の就業に関する意思決定におけるアルゴリズム的アドバイスの使用を模擬した,2つの事前登録実験(N=1,509。
研究1では,教師のパフォーマンス予測に対する参加者のこだわりを探究し,それと相反する2種類の予測(アルゴリズムと人間-専門家)を比較して,自動化バイアスをテストした。
自動化バイアスの証拠は見つかりません。
研究2では,これらの知見を再現し,教師の民族的背景を操作することで,選択的付着性をテストする。
アルゴリズム的助言と人間的アドバイスの間に有意な違いはなく, ネガティブなステレオタイプを持つ少数民族の教師の低いパフォーマンスを予測した場合, 順守の正当性を見いだすことができる。
全体として、選択的、偏りのある付着の発見は、公共セクターでアルゴリズムの使用を推進した中立性の約束を達成します。
関連論文リスト
- Does AI help humans make better decisions? A statistical evaluation framework for experimental and observational studies [0.43981305860983716]
我々は、人間とAI、AIの3つの代替意思決定システムのパフォーマンスを比較する方法を示す。
リスクアセスメントの勧告は、現金保釈を課す裁判官の決定の分類精度を向上しないことがわかった。
論文 参考訳(メタデータ) (2024-03-18T01:04:52Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Homophily and Incentive Effects in Use of Algorithms [17.55279695774825]
本稿では,2つの要因がAIによる意思決定に与える影響を評価するために,クラウドソーシング・ヴィグネット研究を提案する。
まず、ホモフィリー(homophily)を検証します。
次に、インセンティブについて考えます -- ハイブリッドな意思決定環境に(既知の)コスト構造を組み込むには、どうすればよいのでしょう?
論文 参考訳(メタデータ) (2022-05-19T17:11:04Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Biased Programmers? Or Biased Data? A Field Experiment in
Operationalizing AI Ethics [6.946103498518291]
我々は$approx$400のAIエンジニアによる数学性能のアルゴリズム予測820万を評価した。
偏りのある予測は、主に偏りのあるトレーニングデータによって引き起こされる。
より良いトレーニングデータの利点の3分の1は、新しい経済メカニズムによって得られる。
論文 参考訳(メタデータ) (2020-12-04T04:12:33Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。