論文の概要: Evaluating Algorithmic Bias in Models for Predicting Academic Performance of Filipino Students
- arxiv url: http://arxiv.org/abs/2405.09821v2
- Date: Mon, 15 Jul 2024 05:03:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 00:46:04.637574
- Title: Evaluating Algorithmic Bias in Models for Predicting Academic Performance of Filipino Students
- Title(参考訳): フィリピンの学生の学業成績予測モデルにおけるアルゴリズムバイアスの評価
- Authors: Valdemar Švábenský, Mélina Verger, Maria Mercedes T. Rodrigo, Clarence James G. Monterozo, Ryan S. Baker, Miguel Zenon Nicanor Lerias Saavedra, Sébastien Lallé, Atsushi Shimada,
- Abstract要約: 本稿では,フィリピンの大学における学生の地域背景に基づくアルゴリズムバイアスについて検討する。
我々はCanvasにおける学生の活動のログ記録を4870万件使用し、学生の成績を予測する2進分類モデルを訓練した。
学年予測では,特定の学生群に対して不公平性は認められなかった。
- 参考スコア(独自算出の注目度): 0.6775616141339018
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Algorithmic bias is a major issue in machine learning models in educational contexts. However, it has not yet been studied thoroughly in Asian learning contexts, and only limited work has considered algorithmic bias based on regional (sub-national) background. As a step towards addressing this gap, this paper examines the population of 5,986 students at a large university in the Philippines, investigating algorithmic bias based on students' regional background. The university used the Canvas learning management system (LMS) in its online courses across a broad range of domains. Over the period of three semesters, we collected 48.7 million log records of the students' activity in Canvas. We used these logs to train binary classification models that predict student grades from the LMS activity. The best-performing model reached AUC of 0.75 and weighted F1-score of 0.79. Subsequently, we examined the data for bias based on students' region. Evaluation using three metrics: AUC, weighted F1-score, and MADD showed consistent results across all demographic groups. Thus, no unfairness was observed against a particular student group in the grade predictions.
- Abstract(参考訳): アルゴリズムバイアスは、教育的文脈における機械学習モデルにおいて大きな問題である。
しかし、アジア学習の文脈ではまだ徹底的に研究されていないため、地域的(準国家的)背景に基づくアルゴリズム的バイアスを考慮した限られた研究しか行われていない。
本研究は,フィリピンの大学における5,986人の学生を対象に,学生の地域的背景に基づくアルゴリズム的偏見について検討する。
大学はCanvas学習管理システム(LMS)を、幅広い領域にわたるオンラインコースに利用した。
3つのセミメータの期間に、Canvasにおける学生の活動に関する4700万のログを収集した。
我々はこれらのログを用いて、LMS活動から学生の成績を予測するバイナリ分類モデルを訓練した。
最高性能モデルはAUC 0.75、重み付きF1スコア 0.79 に達した。
その後,学生の地域に基づく偏見データについて検討した。
AUC,重み付きF1スコア,MADDの3つの指標を用いて評価した。
その結果, 学年予測において, 特定の学生群に対して不公平性は認められなかった。
関連論文リスト
- A Fair Post-Processing Method based on the MADD Metric for Predictive Student Models [1.055551340663609]
予測的学生モデルにおけるアルゴリズム的公正性を評価するために,新しい尺度が開発された。
本稿では,適切な予測モデルの結果の正確性を保ちつつ,公平性を向上することを目的とした後処理手法を提案する。
我々は、シミュレーションと実世界の教育データを用いて、オンラインコースにおける学生の成功を予測するタスクについて実験を行った。
論文 参考訳(メタデータ) (2024-07-07T14:53:41Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Inside the Black Box: Detecting and Mitigating Algorithmic Bias across Racialized Groups in College Student-Success Prediction [1.124958340749622]
大学生の成功予測の精度が人種集団によってどのように異なるのかを,アルゴリズムバイアスのシグナルとして検討した。
人種的にマイノリティのある学生の成功を予測する際に、大学学生の成功を予測するためによく使われる機能を組み込んだモデルが、いかに正確でないかを実証する。
アルゴリズムバイアスを緩和するための一般的なアプローチは、一般的に、予測結果の相違や人種化されたグループ間の正確性を排除するのに効果がない。
論文 参考訳(メタデータ) (2023-01-10T04:48:51Z) - Multi-Layer Personalized Federated Learning for Mitigating Biases in Student Predictive Analytics [8.642174401125263]
本稿では,学生グループ化基準の異なる層にまたがる推論精度を最適化する多層パーソナライズドフェデレーションラーニング手法を提案する。
提案手法では,個別の学生サブグループに対するパーソナライズされたモデルがグローバルモデルから導出される。
3つの実世界のオンラインコースデータセットの実験は、既存の学生モデルベンチマークよりも、我々のアプローチによって達成された大きな改善を示している。
論文 参考訳(メタデータ) (2022-12-05T17:27:28Z) - Mitigating Biases in Student Performance Prediction via Attention-Based
Personalized Federated Learning [7.040747348755578]
従来の学習に基づく学生モデリングのアプローチは、データの可用性のバイアスにより、表現不足の学生グループにあまり一般化しない。
本研究では,オンライン学習活動から学生のパフォーマンスを予測する手法を提案し,人種や性別などの異なる集団を対象とした推論精度を最適化する。
論文 参考訳(メタデータ) (2022-08-02T00:22:20Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Fairness in Cardiac MR Image Analysis: An Investigation of Bias Due to
Data Imbalance in Deep Learning Based Segmentation [1.6386696247541932]
AIにおける「フェアネス」とは、人種や性別などの人口統計特性に基づいて、潜在的なバイアスのアルゴリズムを評価することを指す。
近年, 心MR領域の深層学習(DL)が注目されているが, それらの妥当性についてはまだ研究されていない。
異なる人種集団間でDiceのパフォーマンスに統計的に有意な差が認められた。
論文 参考訳(メタデータ) (2021-06-23T13:27:35Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Exponential Moving Average Normalization for Self-supervised and
Semi-supervised Learning [90.69256802784689]
指数移動平均正規化(EMAN)と呼ばれるバッチ正規化(BN)のプラグイン置換を提案する。
統計が各バッチ内で計算される標準的なBNとは異なり、教師で使用されるEMANは、学生のBN統計から指数的な移動平均によって統計を更新する。
emanは自己教師付き学習の強力なベースラインを4-6/1-2ポイント、半教師付き学習を約7/2ポイント改善する。
論文 参考訳(メタデータ) (2021-01-21T07:45:37Z) - Neural Semi-supervised Learning for Text Classification Under
Large-Scale Pretraining [51.19885385587916]
我々は、大規模LM事前学習の文脈下で、テキスト分類タスクにおける半教師あり学習の研究を行う。
我々の研究は、大規模事前学習の文脈下でのセミ教師付き学習モデルの振る舞いを理解するための最初のステップである。
論文 参考訳(メタデータ) (2020-11-17T13:39:05Z) - LOGAN: Local Group Bias Detection by Clustering [86.38331353310114]
コーパスレベルでバイアスを評価することは、モデルにバイアスがどのように埋め込まれているかを理解するのに十分ではない、と我々は主張する。
クラスタリングに基づく新しいバイアス検出手法であるLOGANを提案する。
毒性分類および対象分類タスクの実験は、LOGANが局所領域のバイアスを特定することを示している。
論文 参考訳(メタデータ) (2020-10-06T16:42:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。