論文の概要: Inside the Black Box: Detecting and Mitigating Algorithmic Bias across
Racialized Groups in College Student-Success Prediction
- arxiv url: http://arxiv.org/abs/2301.03784v1
- Date: Tue, 10 Jan 2023 04:48:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 13:32:40.830204
- Title: Inside the Black Box: Detecting and Mitigating Algorithmic Bias across
Racialized Groups in College Student-Success Prediction
- Title(参考訳): ブラックボックスの内側:大学生成功予測における人種集団間のアルゴリズムバイアスの検出と緩和
- Authors: Denisa G\'andara, Hadis Anahideh, Matthew P. Ison, Anuja Tayal
- Abstract要約: 予測アルゴリズムは歴史的データに依存しているため、人種差別を含む社会的不正を捉えている。
人種的カテゴリーを含むモデルは、人種的にマイノリティ化された学生が好ましくない結果をもたらすと予測するかもしれない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Colleges and universities are increasingly turning to algorithms that predict
college-student success to inform various decisions, including those related to
admissions, budgeting, and student-success interventions. Because predictive
algorithms rely on historical data, they capture societal injustices, including
racism. A model that includes racial categories may predict that racially
minoritized students will have less favorable outcomes. In this study, we
explore bias in education data by modeling bachelor's degree attainment using
various machine-learning modeling approaches. We also evaluate the utility of
leading bias-mitigating techniques in addressing unfairness. Using nationally
representative data from the Education Longitudinal Study of 2002, we
demonstrate how models incorporating commonly used features to predict
college-student success produce racially biased results.
- Abstract(参考訳): 大学や大学は、入学、予算、学生教育の介入など、様々な決定を伝えるために、大学学生の成功を予測するアルゴリズムに目を向けている。
予測アルゴリズムは歴史的データに依存するため、人種差別を含む社会的不正を捉えている。
人種的カテゴリーを含むモデルは、人種的にマイノリティ化された学生が好ましくない結果をもたらすと予測することができる。
本研究では,様々な機械学習モデリング手法を用いて学士の学位取得をモデル化し,教育データのバイアスについて検討する。
また,不公平に対処するためのバイアス緩和手法の有用性も評価した。
2002年教育縦断研究の全国代表データを用いて、大学学生の成功を予測するためによく使われる特徴を取り入れたモデルが人種的に偏った結果をもたらすことを示す。
関連論文リスト
- Temporal and Between-Group Variability in College Dropout Prediction [0.0]
本研究では,機械学習モデルの寄与要因と予測性能を体系的に評価する。
最終年度末の降雨予測は,ランダムフォレストモデルによる入園時よりも20%高い値を示した。
学生集団間の多様性に関して、大学GPAは、伝統的に不利な背景を持つ学生にとって、仲間よりも予測的価値が高い。
論文 参考訳(メタデータ) (2024-01-12T10:43:55Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Is Your Model "MADD"? A Novel Metric to Evaluate Algorithmic Fairness
for Predictive Student Models [0.0]
本稿では,モデルの識別行動を分析するために,モデル絶対密度距離(MADD)を提案する。
オンライン授業における学生の成功を予測するための共通課題に対するアプローチを,いくつかの共通予測分類モデルを用いて評価した。
論文 参考訳(メタデータ) (2023-05-24T16:55:49Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Causal effect of racial bias in data and machine learning algorithms on
user persuasiveness & discriminatory decision making: An Empirical Study [1.713291434132985]
言語データとモデルは、民族、宗教、ジェンダー、社会経済など、様々な種類の偏見を示している。
この研究の動機は、AIシステムがデータから偏見を排除し、説明できない差別的な結果を生み出す方法を研究することである。
この論文は、不平等なシステム設計による顧客の信頼性の低下に起因した損害のギャップを埋めるものである。
論文 参考訳(メタデータ) (2022-01-22T08:26:09Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z) - Using Noisy Self-Reports to Predict Twitter User Demographics [17.288865276460527]
本稿では,Twitterのプロフィールから人種・民族の自己申告を識別する手法を提案する。
自動監視に固有の誤りにもかかわらず、金の標準自己報告調査データに基づいて、優れた性能のモデルを作成する。
論文 参考訳(メタデータ) (2020-05-01T22:10:35Z) - Academic Performance Estimation with Attention-based Graph Convolutional
Networks [17.985752744098267]
学生の過去のデータから、学生のパフォーマンス予測の課題は、将来のコースにおける生徒の成績を予測することである。
学生のパフォーマンス予測の伝統的な方法は、通常、複数のコース間の基礎となる関係を無視する。
本稿では,学生のパフォーマンス予測のための新しい注目型グラフ畳み込みネットワークモデルを提案する。
論文 参考訳(メタデータ) (2019-12-26T23:11:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。