論文の概要: Inside the Black Box: Detecting and Mitigating Algorithmic Bias across Racialized Groups in College Student-Success Prediction
- arxiv url: http://arxiv.org/abs/2301.03784v2
- Date: Thu, 11 Jul 2024 17:19:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-13 00:16:54.368532
- Title: Inside the Black Box: Detecting and Mitigating Algorithmic Bias across Racialized Groups in College Student-Success Prediction
- Title(参考訳): ブラックボックス内のアルゴリズムバイアスの検出と緩和
- Authors: Denisa Gándara, Hadis Anahideh, Matthew P. Ison, Lorenzo Picchiarini,
- Abstract要約: 大学生の成功予測の精度が人種集団によってどのように異なるのかを,アルゴリズムバイアスのシグナルとして検討した。
人種的にマイノリティのある学生の成功を予測する際に、大学学生の成功を予測するためによく使われる機能を組み込んだモデルが、いかに正確でないかを実証する。
アルゴリズムバイアスを緩和するための一般的なアプローチは、一般的に、予測結果の相違や人種化されたグループ間の正確性を排除するのに効果がない。
- 参考スコア(独自算出の注目度): 1.124958340749622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Colleges and universities are increasingly turning to algorithms that predict college-student success to inform various decisions, including those related to admissions, budgeting, and student-success interventions. Because predictive algorithms rely on historical data, they capture societal injustices, including racism. In this study, we examine how the accuracy of college student success predictions differs between racialized groups, signaling algorithmic bias. We also evaluate the utility of leading bias-mitigating techniques in addressing this bias. Using nationally representative data from the Education Longitudinal Study of 2002 and various machine learning modeling approaches, we demonstrate how models incorporating commonly used features to predict college-student success are less accurate when predicting success for racially minoritized students. Common approaches to mitigating algorithmic bias are generally ineffective at eliminating disparities in prediction outcomes and accuracy between racialized groups.
- Abstract(参考訳): 大学や大学は、入学、予算、学生教育の介入など、様々な決定を伝えるために、大学学生の成功を予測するアルゴリズムに目を向けている。
予測アルゴリズムは歴史的データに依存しているため、人種差別を含む社会的不正を捉えている。
本研究では,大学生の成功予測の精度が人種集団間でどのように異なるか,アルゴリズムバイアスのシグナルとなるかを検討する。
我々はまた、このバイアスに対処する主要なバイアス緩和技術の有用性を評価する。
2002年度教育縦断調査および各種機械学習モデリング手法の全国的代表データを用いて、人種的にマイノリティのある学生の成功を予測する際に、大学学生の成功を予測するためによく使われる特徴を取り入れたモデルがいかに正確でないかを実証した。
アルゴリズムバイアスを緩和するための一般的なアプローチは、一般的に、予測結果の相違や人種化されたグループ間の正確性を排除するのに効果がない。
関連論文リスト
- Learning-Augmented Algorithms with Explicit Predictors [67.02156211760415]
アルゴリズム設計の最近の進歩は、過去のデータと現在のデータから得られた機械学習モデルによる予測の活用方法を示している。
この文脈における以前の研究は、予測器が過去のデータに基づいて事前訓練され、ブラックボックスとして使用されるパラダイムに焦点を当てていた。
本研究では,予測器を解き,アルゴリズムの課題の中で生じる学習問題を統合する。
論文 参考訳(メタデータ) (2024-03-12T08:40:21Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Assessing Gender Bias in Predictive Algorithms using eXplainable AI [1.9798034349981162]
予測アルゴリズムは、医学や教育など様々な分野で利益をもたらす強力な可能性を秘めている。
彼らは人間に存在する偏見と偏見を継承することができる。
結果は、不公平な結果を生み出すエラーを体系的に繰り返すことができます。
論文 参考訳(メタデータ) (2022-03-19T07:47:45Z) - Learning Predictions for Algorithms with Predictions [49.341241064279714]
予測器を学習するアルゴリズムに対して,一般的な設計手法を導入する。
オンライン学習の手法を応用して、敵のインスタンスに対して学習し、堅牢性と一貫性のあるトレードオフを調整し、新しい統計的保証を得る。
両部マッチング,ページマイグレーション,スキーレンタル,ジョブスケジューリングの手法を解析することにより,学習アルゴリズムの導出におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-02-18T17:25:43Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Decision Tree-Based Predictive Models for Academic Achievement Using
College Students' Support Networks [0.16311150636417257]
Tiesデータと呼ばれるデータには、学生の人口統計とネットワーク情報のサポートが含まれていた。
白人学生にとって、学業成績を予測するためには、様々なタイプの教育支援が重要であった。
非白人学生にとって、学業成績を予測する上では、異なるタイプの感情的支援が重要であった。
論文 参考訳(メタデータ) (2021-08-31T16:09:56Z) - Avoiding bias when inferring race using name-based approaches [0.8543368663496084]
我々は、米国国勢調査および住宅ローン申請の情報を用いて、米国関連作家のウェブ・オブ・サイエンスにおける人種を推測する。
その結果、人種・民族によって名前に基づく推論の妥当性が異なり、しきい値が黒人作家を過小評価し、白人作家を過小評価することを示した。
論文 参考訳(メタデータ) (2021-04-14T08:36:22Z) - Decision-makers Processing of AI Algorithmic Advice: Automation Bias
versus Selective Adherence [0.0]
主な懸念は、アルゴリズムに対する人間の過度な信頼は、人間とアルゴリズムの相互作用に新しいバイアスをもたらすことである。
第2の懸念は、意思決定者が既存の信念やステレオタイプと一致した場合、アルゴリズム的なアドバイスを選択的に採用する傾向にある。
オランダにおける学校教師の雇用に関する決定におけるアルゴリズム的アドバイスの使用をシミュレートする2つの研究を通して、これらを評価する。
選択的、偏りのある遵守の私たちの発見は、公共部門でアルゴリズムの使用を推し進めた中立性の約束です。
論文 参考訳(メタデータ) (2021-03-03T13:10:50Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z) - A survey of bias in Machine Learning through the prism of Statistical
Parity for the Adult Data Set [5.277804553312449]
偏見を自動決定にどのように導入できるかを理解することの重要性を示す。
まず、公正学習問題、特に二項分類設定における数学的枠組みについて述べる。
そこで,本研究では,現実およびよく知られた成人所得データセットの標準差分効果指標を用いて,偏見の有無を定量化することを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。