論文の概要: Biased Programmers? Or Biased Data? A Field Experiment in
Operationalizing AI Ethics
- arxiv url: http://arxiv.org/abs/2012.02394v1
- Date: Fri, 4 Dec 2020 04:12:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-22 03:13:07.688828
- Title: Biased Programmers? Or Biased Data? A Field Experiment in
Operationalizing AI Ethics
- Title(参考訳): 偏りのあるプログラマ?
あるいはバイアスデータ?
AI倫理の操作に関するフィールド実験
- Authors: Bo Cowgill, Fabrizio Dell'Acqua, Samuel Deng, Daniel Hsu, Nakul Verma
and Augustin Chaintreau
- Abstract要約: 我々は$approx$400のAIエンジニアによる数学性能のアルゴリズム予測820万を評価した。
偏りのある予測は、主に偏りのあるトレーニングデータによって引き起こされる。
より良いトレーニングデータの利点の3分の1は、新しい経済メカニズムによって得られる。
- 参考スコア(独自算出の注目度): 6.946103498518291
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Why do biased predictions arise? What interventions can prevent them? We
evaluate 8.2 million algorithmic predictions of math performance from
$\approx$400 AI engineers, each of whom developed an algorithm under a randomly
assigned experimental condition. Our treatment arms modified programmers'
incentives, training data, awareness, and/or technical knowledge of AI ethics.
We then assess out-of-sample predictions from their algorithms using randomized
audit manipulations of algorithm inputs and ground-truth math performance for
20K subjects. We find that biased predictions are mostly caused by biased
training data. However, one-third of the benefit of better training data comes
through a novel economic mechanism: Engineers exert greater effort and are more
responsive to incentives when given better training data. We also assess how
performance varies with programmers' demographic characteristics, and their
performance on a psychological test of implicit bias (IAT) concerning gender
and careers. We find no evidence that female, minority and low-IAT engineers
exhibit lower bias or discrimination in their code. However, we do find that
prediction errors are correlated within demographic groups, which creates
performance improvements through cross-demographic averaging. Finally, we
quantify the benefits and tradeoffs of practical managerial or policy
interventions such as technical advice, simple reminders, and improved
incentives for decreasing algorithmic bias.
- Abstract(参考訳): なぜバイアスのある予測が生じるのか?
どんな介入を防げますか?
約400ドルのaiエンジニアから、ランダムに割り当てられた実験条件下でアルゴリズムを開発した8.2百万のアルゴリズムによる計算性能の予測を評価した。
我々の治療部門は、プログラマのインセンティブ、トレーニングデータ、認識、および/またはAI倫理に関する技術的な知識を変更しました。
次に,アルゴリズム入力のランダムな監査操作と20K被験者の地味数学性能を用いて,サンプル外予測をアルゴリズムから評価する。
偏りのある予測は、主に偏りのあるトレーニングデータによって引き起こされる。
しかし、より良いトレーニングデータの利点の3分の1は、新しい経済メカニズムによってもたらされます。
また、プログラマの人口特性と、性別やキャリアに関する心理的偏見(IAT)の心理テストにおいて、パフォーマンスがどのように変化するかを評価する。
女性、マイノリティ、低IATエンジニアがコードのバイアスや差別が低いという証拠は見つからない。
しかし, 人口統計群では予測誤差が相関していることが判明し, クロスデミノグラフィー平均化による性能改善が期待できる。
最後に、技術的アドバイス、単純なリマインダー、アルゴリズムバイアスの低減のためのインセンティブの改善など、実践的な管理や政策介入のメリットとトレードオフを定量化する。
関連論文リスト
- Performativity and Prospective Fairness [4.3512163406552]
本稿では,因果的下流結果変数に対するアルゴリズム的効果に着目した。
我々は、このような政策が労働市場の男女不平等を悪化させるかどうかを予測する方法を示す。
論文 参考訳(メタデータ) (2023-10-12T14:18:13Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Behavioral Machine Learning? Computer Predictions of Corporate Earnings
also Overreact [9.566303741482468]
いくつかのアルゴリズム、特に線形回帰と、GBRT(Gradient Boosted Regression Trees)と呼ばれる人気アルゴリズムによる企業利益予測について検討する。
平均してGBRTは線形回帰と人的株価アナリストの両方を上回ったが、それでもニュースに過度に反応し、通常定義された合理的な期待を満たさなかった。
機械学習の手法で訓練された人間の株価アナリストは、伝統的に訓練されたアナリストよりも過度に反応しない。
論文 参考訳(メタデータ) (2023-03-25T03:06:43Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - ABCinML: Anticipatory Bias Correction in Machine Learning Applications [9.978142416219294]
そこで本研究では,アルゴリズムがバイアスを緩和するための予測動的学習手法を提案する。
複数の実世界のデータセットに対する実験の結果は、このアプローチが予測バイアス補正を約束していることを示唆している。
論文 参考訳(メタデータ) (2022-06-14T16:26:10Z) - Non-Clairvoyant Scheduling with Predictions Revisited [77.86290991564829]
非論理的スケジューリングでは、優先度不明な処理条件でジョブをスケジューリングするためのオンライン戦略を見つけることが課題である。
我々はこのよく研究された問題を、アルゴリズム設計に(信頼できない)予測を統合する、最近人気の高い学習強化された設定で再検討する。
これらの予測には所望の特性があり, 高い性能保証を有するアルゴリズムと同様に, 自然な誤差測定が可能であることを示す。
論文 参考訳(メタデータ) (2022-02-21T13:18:11Z) - Learning Predictions for Algorithms with Predictions [49.341241064279714]
予測器を学習するアルゴリズムに対して,一般的な設計手法を導入する。
オンライン学習の手法を応用して、敵のインスタンスに対して学習し、堅牢性と一貫性のあるトレードオフを調整し、新しい統計的保証を得る。
両部マッチング,ページマイグレーション,スキーレンタル,ジョブスケジューリングの手法を解析することにより,学習アルゴリズムの導出におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-02-18T17:25:43Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Bias: Friend or Foe? User Acceptance of Gender Stereotypes in Automated
Career Recommendations [8.44485053836748]
我々は、公正なAIアルゴリズムが現実の世界でその意図した結果を達成するには不十分であることを示した。
キャリアレコメンデーションをケーススタディとして利用し、ジェンダーの偏りを抑える機械学習技術を用いて、公正なAIキャリアレコメンデーターを構築する。
論文 参考訳(メタデータ) (2021-06-13T23:27:45Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Decision-makers Processing of AI Algorithmic Advice: Automation Bias
versus Selective Adherence [0.0]
主な懸念は、アルゴリズムに対する人間の過度な信頼は、人間とアルゴリズムの相互作用に新しいバイアスをもたらすことである。
第2の懸念は、意思決定者が既存の信念やステレオタイプと一致した場合、アルゴリズム的なアドバイスを選択的に採用する傾向にある。
オランダにおける学校教師の雇用に関する決定におけるアルゴリズム的アドバイスの使用をシミュレートする2つの研究を通して、これらを評価する。
選択的、偏りのある遵守の私たちの発見は、公共部門でアルゴリズムの使用を推し進めた中立性の約束です。
論文 参考訳(メタデータ) (2021-03-03T13:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。