論文の概要: Protected Attributes Tell Us Who, Behavior Tells Us How: A Comparison of
Demographic and Behavioral Oversampling for Fair Student Success Modeling
- arxiv url: http://arxiv.org/abs/2212.10166v1
- Date: Tue, 20 Dec 2022 11:09:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 13:13:12.562307
- Title: Protected Attributes Tell Us Who, Behavior Tells Us How: A Comparison of
Demographic and Behavioral Oversampling for Fair Student Success Modeling
- Title(参考訳): 保護された属性は、どのように行動が教えてくれるかを教えてくれる:公平な学生成功モデルのための人口統計と行動オーバーサンプリングの比較
- Authors: Jade Ma\"i Cock, Muhammad Bilal, Richard Davis, Mirko Marras, Tanja
K\"aser
- Abstract要約: リスクのある学生を識別するために行動データを利用するモデルの公正性を解析し、バイアス軽減のための2つの新しい前処理アプローチを提案する。
交差性の概念に基づいて、第一のアプローチは、人口統計特性の組み合わせによるインテリジェントなオーバーサンプリングである。
第二のアプローチは、人口統計学的属性の知識を一切必要とせず、そのような属性が学生の行動の(騒々しい)プロキシであるという仮定に基づいている。
- 参考スコア(独自算出の注目度): 6.58879009604603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithms deployed in education can shape the learning experience and
success of a student. It is therefore important to understand whether and how
such algorithms might create inequalities or amplify existing biases. In this
paper, we analyze the fairness of models which use behavioral data to identify
at-risk students and suggest two novel pre-processing approaches for bias
mitigation. Based on the concept of intersectionality, the first approach
involves intelligent oversampling on combinations of demographic attributes.
The second approach does not require any knowledge of demographic attributes
and is based on the assumption that such attributes are a (noisy) proxy for
student behavior. We hence propose to directly oversample different types of
behaviors identified in a cluster analysis. We evaluate our approaches on data
from (i) an open-ended learning environment and (ii) a flipped classroom
course. Our results show that both approaches can mitigate model bias. Directly
oversampling on behavior is a valuable alternative, when demographic metadata
is not available. Source code and extended results are provided in
https://github.com/epfl-ml4ed/behavioral-oversampling}{https://github.com/epfl-ml4ed/behavioral-oversampling .
- Abstract(参考訳): 教育に配備されたアルゴリズムは、学生の学習経験と成功を形作ることができる。
したがって、そのようなアルゴリズムが不等式を生み出したり、既存のバイアスを増幅するかどうかを理解することが重要である。
本稿では,行動データを用いて生徒を識別するモデルの公平性を分析し,バイアス緩和のための2つの新しい前処理手法を提案する。
交差性の概念に基づいて、第一のアプローチは、人口統計特性の組み合わせによるインテリジェントなオーバーサンプリングである。
第二のアプローチは、人口統計特性の知識を一切必要とせず、そのような属性が学生の行動の(うるさい)プロキシであるという仮定に基づいている。
したがって、クラスタ分析で識別される異なる種類の振る舞いを直接オーバーサンプリングする提案を行う。
私たちはデータに対するアプローチを評価し
(i)開放的な学習環境、及び
(ii)ひっくり返した教室。
その結果,どちらのアプローチもモデルのバイアスを軽減できることがわかった。
人口統計学的メタデータが利用できない場合、振る舞いのオーバーサンプリングは価値ある代替手段である。
ソースコードと拡張結果はhttps://github.com/epfl-ml4ed/behavioral-oversampling}{https://github.com/epfl-ml4ed/behavioral-oversampling で提供されている。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Leveraging vision-language models for fair facial attribute classification [19.93324644519412]
汎用視覚言語モデル(英: General-purpose Vision-Language Model, VLM)は、共通感性属性のための豊富な知識源である。
我々は,VLM予測値と人間定義属性分布の対応関係を解析した。
複数のベンチマークの顔属性分類データセットの実験は、既存の教師なしベースラインよりもモデルの公平性の向上を示している。
論文 参考訳(メタデータ) (2024-03-15T18:37:15Z) - Memory Consistency Guided Divide-and-Conquer Learning for Generalized
Category Discovery [56.172872410834664]
一般カテゴリー発見(GCD)は、半教師付き学習のより現実的で挑戦的な設定に対処することを目的としている。
メモリ一貫性を誘導する分枝・分枝学習フレームワーク(MCDL)を提案する。
本手法は,画像認識の目に見えるクラスと見えないクラスの両方において,最先端のモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-24T09:39:45Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Automatic Fairness Testing of Neural Classifiers through Adversarial
Sampling [8.2868128804393]
本稿では,識別サンプルを体系的に検索するスケーラブルで効果的な手法を提案する。
最先端の手法と比較して、我々の手法は勾配計算やクラスタリングのような軽量な手法のみを用いる。
再訓練されたモデルは、それぞれ平均57.2%と60.2%の差別を減少させる。
論文 参考訳(メタデータ) (2021-07-17T03:47:08Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Discriminative, Generative and Self-Supervised Approaches for
Target-Agnostic Learning [8.666667951130892]
生成的および自己教師型学習モデルは、そのタスクでうまく機能することが示されている。
擬似相似理論の導出した定理は、結合分布モデルの推定に関係があることも示している。
論文 参考訳(メタデータ) (2020-11-12T15:03:40Z) - A framework for predicting, interpreting, and improving Learning
Outcomes [0.0]
本研究では,学生の観察的,行動的,受験的特徴に基づいて,テストスコアを予測するEmbibe Score Quotient Model(ESQ)を開発した。
ESQは、学生の将来的な採点可能性の予測や、個別の学習ナッジの提供に使用することができる。
論文 参考訳(メタデータ) (2020-10-06T11:22:27Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。