論文の概要: Towards Equity and Algorithmic Fairness in Student Grade Prediction
- arxiv url: http://arxiv.org/abs/2105.06604v1
- Date: Fri, 14 May 2021 01:12:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 12:49:41.737720
- Title: Towards Equity and Algorithmic Fairness in Student Grade Prediction
- Title(参考訳): 学生成績予測における公平性とアルゴリズム的公平性
- Authors: Weijie Jiang, Zachary A. Pardos
- Abstract要約: この研究は、人種に関するAIの教育的成果と公平性に対処する。
ラベルとインスタンスのバランスに関するいくつかの戦略を試行し、レースにおけるアルゴリズム性能の違いを最小化しようと試みる。
逆学習アプローチとグレードラベルのバランスが組み合わさって,最も公平な結果が得られることが分かりました。
- 参考スコア(独自算出の注目度): 2.9189409618561966
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Equity of educational outcome and fairness of AI with respect to race have
been topics of increasing importance in education. In this work, we address
both with empirical evaluations of grade prediction in higher education, an
important task to improve curriculum design, plan interventions for academic
support, and offer course guidance to students. With fairness as the aim, we
trial several strategies for both label and instance balancing to attempt to
minimize differences in algorithm performance with respect to race. We find
that an adversarial learning approach, combined with grade label balancing,
achieved by far the fairest results. With equity of educational outcome as the
aim, we trial strategies for boosting predictive performance on historically
underserved groups and find success in sampling those groups in inverse
proportion to their historic outcomes. With AI-infused technology supports
increasingly prevalent on campuses, our methodologies fill a need for
frameworks to consider performance trade-offs with respect to sensitive student
attributes and allow institutions to instrument their AI resources in ways that
are attentive to equity and fairness.
- Abstract(参考訳): 人種に関するAIの教育的成果と公正性は、教育における重要性の増大のトピックである。
本研究では,高等教育における学年予測の実証的評価,カリキュラム設計の改善のための重要な課題,学力支援のための計画介入,学生への授業指導等について論じる。
公平性を目標として,ラベルバランシングとインスタンスバランシングの2つの戦略を試行し,アルゴリズムのパフォーマンスの違いを最小限に抑えることを試みた。
逆学習アプローチとグレードラベルのバランスが組み合わさって,最も公平な結果が得られることが分かりました。
教育成果の公平性を目標として,歴史的に保存されていないグループにおける予測性能の向上と,それらのグループを過去の成果に逆比例してサンプリングすることに成功するための戦略を試した。
AIを注入した技術は、キャンパスでますます普及しているので、私たちの方法論は、繊細な学生属性に関するパフォーマンストレードオフを検討するためのフレームワークの必要性を埋め、機関がAIリソースを公平で公正な方法で実施できるようにする。
関連論文リスト
- FairAIED: Navigating Fairness, Bias, and Ethics in Educational AI Applications [2.612585751318055]
人工知能の教育への統合は変革の可能性を秘めており、適切な学習経験と創造的な教育的アプローチを提供する。
しかし、AIアルゴリズムの固有のバイアスは、特定の人口層に対する偏見を意図せずに永続させることによって、この改善を妨げている。
この調査は、教育的文脈におけるアルゴリズムフェアネスの発達するトピックを深く掘り下げている。
データ関連、アルゴリズム、ユーザーインタラクションなど、AI教育における公正性の達成を根本的に損なう共通のバイアスの形式を特定します。
論文 参考訳(メタデータ) (2024-07-26T13:59:20Z) - A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - The Rise of Artificial Intelligence in Educational Measurement: Opportunities and Ethical Challenges [2.569083526579529]
教育におけるAIは、妥当性、信頼性、透明性、公平性、公平性に関する倫理的な懸念を提起する。
教育者、政策立案者、組織を含む様々な利害関係者は、教育における倫理的AIの使用を保証するガイドラインを開発した。
本稿では,AIを活用したツールの教育測定における倫理的意義について検討する。
論文 参考訳(メタデータ) (2024-06-27T05:28:40Z) - Are we making progress in unlearning? Findings from the first NeurIPS unlearning competition [70.60872754129832]
アンラーニングに関する最初のNeurIPSコンペティションは、新しいアルゴリズムの開発を刺激しようとした。
世界中から約1200チームが参加した。
トップソリューションを分析し、アンラーニングのベンチマークに関する議論を掘り下げます。
論文 参考訳(メタデータ) (2024-06-13T12:58:00Z) - BAL: Balancing Diversity and Novelty for Active Learning [53.289700543331925]
多様な不確実なデータのバランスをとるために適応的なサブプールを構築する新しいフレームワークであるBalancing Active Learning (BAL)を導入する。
我々のアプローチは、広く認識されているベンチマークにおいて、確立されたすべてのアクティブな学習方法より1.20%優れています。
論文 参考訳(メタデータ) (2023-12-26T08:14:46Z) - Implementing Learning Principles with a Personal AI Tutor: A Case Study [2.94944680995069]
本研究は,人間の学習過程をモデル化し,学術的性能を効果的に向上するパーソナルAIチューターの能力を示す。
プログラムにAIチューターを統合することで、教育者は、学習科学の原則に基づくパーソナライズされた学習体験を学生に提供することができる。
論文 参考訳(メタデータ) (2023-09-10T15:35:47Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Evaluation of group fairness measures in student performance prediction
problems [12.502377311068757]
様々な学習データセットとフェアネス認識学習モデルを用いて,学生のパフォーマンス予測問題に対するグループフェアネスの評価を行った。
本研究は, 等級選択においても, 公平度尺度の選択が重要であることを示す。
論文 参考訳(メタデータ) (2022-08-22T22:06:08Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z) - No computation without representation: Avoiding data and algorithm
biases through diversity [11.12971845021808]
学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
論文 参考訳(メタデータ) (2020-02-26T23:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。