論文の概要: Inside the Black Box: Detecting and Mitigating Algorithmic Bias across
Racialized Groups in College Student-Success Prediction
- arxiv url: http://arxiv.org/abs/2301.03784v1
- Date: Tue, 10 Jan 2023 04:48:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 13:32:40.830204
- Title: Inside the Black Box: Detecting and Mitigating Algorithmic Bias across
Racialized Groups in College Student-Success Prediction
- Title(参考訳): ブラックボックスの内側:大学生成功予測における人種集団間のアルゴリズムバイアスの検出と緩和
- Authors: Denisa G\'andara, Hadis Anahideh, Matthew P. Ison, Anuja Tayal
- Abstract要約: 予測アルゴリズムは歴史的データに依存しているため、人種差別を含む社会的不正を捉えている。
人種的カテゴリーを含むモデルは、人種的にマイノリティ化された学生が好ましくない結果をもたらすと予測するかもしれない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Colleges and universities are increasingly turning to algorithms that predict
college-student success to inform various decisions, including those related to
admissions, budgeting, and student-success interventions. Because predictive
algorithms rely on historical data, they capture societal injustices, including
racism. A model that includes racial categories may predict that racially
minoritized students will have less favorable outcomes. In this study, we
explore bias in education data by modeling bachelor's degree attainment using
various machine-learning modeling approaches. We also evaluate the utility of
leading bias-mitigating techniques in addressing unfairness. Using nationally
representative data from the Education Longitudinal Study of 2002, we
demonstrate how models incorporating commonly used features to predict
college-student success produce racially biased results.
- Abstract(参考訳): 大学や大学は、入学、予算、学生教育の介入など、様々な決定を伝えるために、大学学生の成功を予測するアルゴリズムに目を向けている。
予測アルゴリズムは歴史的データに依存するため、人種差別を含む社会的不正を捉えている。
人種的カテゴリーを含むモデルは、人種的にマイノリティ化された学生が好ましくない結果をもたらすと予測することができる。
本研究では,様々な機械学習モデリング手法を用いて学士の学位取得をモデル化し,教育データのバイアスについて検討する。
また,不公平に対処するためのバイアス緩和手法の有用性も評価した。
2002年教育縦断研究の全国代表データを用いて、大学学生の成功を予測するためによく使われる特徴を取り入れたモデルが人種的に偏った結果をもたらすことを示す。
関連論文リスト
- Learning-Augmented Algorithms with Explicit Predictors [67.02156211760415]
アルゴリズム設計の最近の進歩は、過去のデータと現在のデータから得られた機械学習モデルによる予測の活用方法を示している。
この文脈における以前の研究は、予測器が過去のデータに基づいて事前訓練され、ブラックボックスとして使用されるパラダイムに焦点を当てていた。
本研究では,予測器を解き,アルゴリズムの課題の中で生じる学習問題を統合する。
論文 参考訳(メタデータ) (2024-03-12T08:40:21Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Assessing Gender Bias in Predictive Algorithms using eXplainable AI [1.9798034349981162]
予測アルゴリズムは、医学や教育など様々な分野で利益をもたらす強力な可能性を秘めている。
彼らは人間に存在する偏見と偏見を継承することができる。
結果は、不公平な結果を生み出すエラーを体系的に繰り返すことができます。
論文 参考訳(メタデータ) (2022-03-19T07:47:45Z) - Learning Predictions for Algorithms with Predictions [49.341241064279714]
予測器を学習するアルゴリズムに対して,一般的な設計手法を導入する。
オンライン学習の手法を応用して、敵のインスタンスに対して学習し、堅牢性と一貫性のあるトレードオフを調整し、新しい統計的保証を得る。
両部マッチング,ページマイグレーション,スキーレンタル,ジョブスケジューリングの手法を解析することにより,学習アルゴリズムの導出におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-02-18T17:25:43Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Decision Tree-Based Predictive Models for Academic Achievement Using
College Students' Support Networks [0.16311150636417257]
Tiesデータと呼ばれるデータには、学生の人口統計とネットワーク情報のサポートが含まれていた。
白人学生にとって、学業成績を予測するためには、様々なタイプの教育支援が重要であった。
非白人学生にとって、学業成績を予測する上では、異なるタイプの感情的支援が重要であった。
論文 参考訳(メタデータ) (2021-08-31T16:09:56Z) - Avoiding bias when inferring race using name-based approaches [0.8543368663496084]
我々は、米国国勢調査および住宅ローン申請の情報を用いて、米国関連作家のウェブ・オブ・サイエンスにおける人種を推測する。
その結果、人種・民族によって名前に基づく推論の妥当性が異なり、しきい値が黒人作家を過小評価し、白人作家を過小評価することを示した。
論文 参考訳(メタデータ) (2021-04-14T08:36:22Z) - Decision-makers Processing of AI Algorithmic Advice: Automation Bias
versus Selective Adherence [0.0]
主な懸念は、アルゴリズムに対する人間の過度な信頼は、人間とアルゴリズムの相互作用に新しいバイアスをもたらすことである。
第2の懸念は、意思決定者が既存の信念やステレオタイプと一致した場合、アルゴリズム的なアドバイスを選択的に採用する傾向にある。
オランダにおける学校教師の雇用に関する決定におけるアルゴリズム的アドバイスの使用をシミュレートする2つの研究を通して、これらを評価する。
選択的、偏りのある遵守の私たちの発見は、公共部門でアルゴリズムの使用を推し進めた中立性の約束です。
論文 参考訳(メタデータ) (2021-03-03T13:10:50Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z) - A survey of bias in Machine Learning through the prism of Statistical
Parity for the Adult Data Set [5.277804553312449]
偏見を自動決定にどのように導入できるかを理解することの重要性を示す。
まず、公正学習問題、特に二項分類設定における数学的枠組みについて述べる。
そこで,本研究では,現実およびよく知られた成人所得データセットの標準差分効果指標を用いて,偏見の有無を定量化することを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。