論文の概要: Towards Equity and Algorithmic Fairness in Student Grade Prediction
- arxiv url: http://arxiv.org/abs/2105.06604v1
- Date: Fri, 14 May 2021 01:12:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 12:49:41.737720
- Title: Towards Equity and Algorithmic Fairness in Student Grade Prediction
- Title(参考訳): 学生成績予測における公平性とアルゴリズム的公平性
- Authors: Weijie Jiang, Zachary A. Pardos
- Abstract要約: この研究は、人種に関するAIの教育的成果と公平性に対処する。
ラベルとインスタンスのバランスに関するいくつかの戦略を試行し、レースにおけるアルゴリズム性能の違いを最小化しようと試みる。
逆学習アプローチとグレードラベルのバランスが組み合わさって,最も公平な結果が得られることが分かりました。
- 参考スコア(独自算出の注目度): 2.9189409618561966
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Equity of educational outcome and fairness of AI with respect to race have
been topics of increasing importance in education. In this work, we address
both with empirical evaluations of grade prediction in higher education, an
important task to improve curriculum design, plan interventions for academic
support, and offer course guidance to students. With fairness as the aim, we
trial several strategies for both label and instance balancing to attempt to
minimize differences in algorithm performance with respect to race. We find
that an adversarial learning approach, combined with grade label balancing,
achieved by far the fairest results. With equity of educational outcome as the
aim, we trial strategies for boosting predictive performance on historically
underserved groups and find success in sampling those groups in inverse
proportion to their historic outcomes. With AI-infused technology supports
increasingly prevalent on campuses, our methodologies fill a need for
frameworks to consider performance trade-offs with respect to sensitive student
attributes and allow institutions to instrument their AI resources in ways that
are attentive to equity and fairness.
- Abstract(参考訳): 人種に関するAIの教育的成果と公正性は、教育における重要性の増大のトピックである。
本研究では,高等教育における学年予測の実証的評価,カリキュラム設計の改善のための重要な課題,学力支援のための計画介入,学生への授業指導等について論じる。
公平性を目標として,ラベルバランシングとインスタンスバランシングの2つの戦略を試行し,アルゴリズムのパフォーマンスの違いを最小限に抑えることを試みた。
逆学習アプローチとグレードラベルのバランスが組み合わさって,最も公平な結果が得られることが分かりました。
教育成果の公平性を目標として,歴史的に保存されていないグループにおける予測性能の向上と,それらのグループを過去の成果に逆比例してサンプリングすることに成功するための戦略を試した。
AIを注入した技術は、キャンパスでますます普及しているので、私たちの方法論は、繊細な学生属性に関するパフォーマンストレードオフを検討するためのフレームワークの必要性を埋め、機関がAIリソースを公平で公正な方法で実施できるようにする。
関連論文リスト
- BAL: Balancing Diversity and Novelty for Active Learning [53.289700543331925]
多様な不確実なデータのバランスをとるために適応的なサブプールを構築する新しいフレームワークであるBalancing Active Learning (BAL)を導入する。
我々のアプローチは、広く認識されているベンチマークにおいて、確立されたすべてのアクティブな学習方法より1.20%優れています。
論文 参考訳(メタデータ) (2023-12-26T08:14:46Z) - Implementing Learning Principles with a Personal AI Tutor: A Case Study [2.94944680995069]
本研究は,人間の学習過程をモデル化し,学術的性能を効果的に向上するパーソナルAIチューターの能力を示す。
プログラムにAIチューターを統合することで、教育者は、学習科学の原則に基づくパーソナライズされた学習体験を学生に提供することができる。
論文 参考訳(メタデータ) (2023-09-10T15:35:47Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Reinforcement Learning with Stepwise Fairness Constraints [50.538878453547966]
本稿では,段階的公正性制約を伴う強化学習について紹介する。
我々は、ポリシーの最適性と公正性違反に関して、強力な理論的保証を持つ学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-11-08T04:06:23Z) - Evaluation of group fairness measures in student performance prediction
problems [12.502377311068757]
様々な学習データセットとフェアネス認識学習モデルを用いて,学生のパフォーマンス予測問題に対するグループフェアネスの評価を行った。
本研究は, 等級選択においても, 公平度尺度の選択が重要であることを示す。
論文 参考訳(メタデータ) (2022-08-22T22:06:08Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z) - Balancing Competing Objectives with Noisy Data: Score-Based Classifiers
for Welfare-Aware Machine Learning [43.518329314620416]
我々は、私的目的(利益など)と公共目的(社会福祉など)とを明確にトレードオフするアルゴリズム政策を研究する。
我々の結果は、社会福祉に影響を与える決定に機械学習を使うことにおける本質的にのトレードオフを浮き彫りにした。
論文 参考訳(メタデータ) (2020-03-15T02:49:39Z) - No computation without representation: Avoiding data and algorithm
biases through diversity [11.12971845021808]
学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
論文 参考訳(メタデータ) (2020-02-26T23:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。