論文の概要: Towards Equity and Algorithmic Fairness in Student Grade Prediction
- arxiv url: http://arxiv.org/abs/2105.06604v1
- Date: Fri, 14 May 2021 01:12:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 12:49:41.737720
- Title: Towards Equity and Algorithmic Fairness in Student Grade Prediction
- Title(参考訳): 学生成績予測における公平性とアルゴリズム的公平性
- Authors: Weijie Jiang, Zachary A. Pardos
- Abstract要約: この研究は、人種に関するAIの教育的成果と公平性に対処する。
ラベルとインスタンスのバランスに関するいくつかの戦略を試行し、レースにおけるアルゴリズム性能の違いを最小化しようと試みる。
逆学習アプローチとグレードラベルのバランスが組み合わさって,最も公平な結果が得られることが分かりました。
- 参考スコア(独自算出の注目度): 2.9189409618561966
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Equity of educational outcome and fairness of AI with respect to race have
been topics of increasing importance in education. In this work, we address
both with empirical evaluations of grade prediction in higher education, an
important task to improve curriculum design, plan interventions for academic
support, and offer course guidance to students. With fairness as the aim, we
trial several strategies for both label and instance balancing to attempt to
minimize differences in algorithm performance with respect to race. We find
that an adversarial learning approach, combined with grade label balancing,
achieved by far the fairest results. With equity of educational outcome as the
aim, we trial strategies for boosting predictive performance on historically
underserved groups and find success in sampling those groups in inverse
proportion to their historic outcomes. With AI-infused technology supports
increasingly prevalent on campuses, our methodologies fill a need for
frameworks to consider performance trade-offs with respect to sensitive student
attributes and allow institutions to instrument their AI resources in ways that
are attentive to equity and fairness.
- Abstract(参考訳): 人種に関するAIの教育的成果と公正性は、教育における重要性の増大のトピックである。
本研究では,高等教育における学年予測の実証的評価,カリキュラム設計の改善のための重要な課題,学力支援のための計画介入,学生への授業指導等について論じる。
公平性を目標として,ラベルバランシングとインスタンスバランシングの2つの戦略を試行し,アルゴリズムのパフォーマンスの違いを最小限に抑えることを試みた。
逆学習アプローチとグレードラベルのバランスが組み合わさって,最も公平な結果が得られることが分かりました。
教育成果の公平性を目標として,歴史的に保存されていないグループにおける予測性能の向上と,それらのグループを過去の成果に逆比例してサンプリングすることに成功するための戦略を試した。
AIを注入した技術は、キャンパスでますます普及しているので、私たちの方法論は、繊細な学生属性に関するパフォーマンストレードオフを検討するためのフレームワークの必要性を埋め、機関がAIリソースを公平で公正な方法で実施できるようにする。
関連論文リスト
- Fairness in Reinforcement Learning with Bisimulation Metrics [45.674943127750595]
公平さを考慮せずに報酬を最大化することにより、AIエージェントはグループや個人の扱いに格差を導入することができる。
そこで本研究では,バイシミュレーションのメトリクスを利用して報酬関数と観測ダイナミクスを学習する手法を提案する。
論文 参考訳(メタデータ) (2024-12-22T18:23:06Z) - Analyzing the Impact of AI Tools on Student Study Habits and Academic Performance [0.0]
この研究は、AIツールがパーソナライズされた学習、適応テスト調整をサポートし、リアルタイムの教室分析を提供する方法に焦点を当てている。
学生のフィードバックはこれらの特徴に対する強い支持を示し、GPAの増加とともに研究時間を大幅に短縮した。
これらのメリットにもかかわらず、AIへの過度依存や、AIと従来の教育方法を統合することの難しさといった課題も特定された。
論文 参考訳(メタデータ) (2024-12-03T04:51:57Z) - FairAIED: Navigating Fairness, Bias, and Ethics in Educational AI Applications [2.612585751318055]
人工知能の教育への統合は変革の可能性を秘めており、適切な学習経験と創造的な教育的アプローチを提供する。
しかし、AIアルゴリズムの固有のバイアスは、特定の人口層に対する偏見を意図せずに永続させることによって、この改善を妨げている。
この調査は、教育的文脈におけるアルゴリズムフェアネスの発達するトピックを深く掘り下げている。
データ関連、アルゴリズム、ユーザーインタラクションなど、AI教育における公正性の達成を根本的に損なう共通のバイアスの形式を特定します。
論文 参考訳(メタデータ) (2024-07-26T13:59:20Z) - A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - BAL: Balancing Diversity and Novelty for Active Learning [53.289700543331925]
多様な不確実なデータのバランスをとるために適応的なサブプールを構築する新しいフレームワークであるBalancing Active Learning (BAL)を導入する。
我々のアプローチは、広く認識されているベンチマークにおいて、確立されたすべてのアクティブな学習方法より1.20%優れています。
論文 参考訳(メタデータ) (2023-12-26T08:14:46Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Evaluation of group fairness measures in student performance prediction
problems [12.502377311068757]
様々な学習データセットとフェアネス認識学習モデルを用いて,学生のパフォーマンス予測問題に対するグループフェアネスの評価を行った。
本研究は, 等級選択においても, 公平度尺度の選択が重要であることを示す。
論文 参考訳(メタデータ) (2022-08-22T22:06:08Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z) - No computation without representation: Avoiding data and algorithm
biases through diversity [11.12971845021808]
学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
論文 参考訳(メタデータ) (2020-02-26T23:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。