論文の概要: Evaluation of Fairness Trade-offs in Predicting Student Success
- arxiv url: http://arxiv.org/abs/2007.00088v1
- Date: Tue, 30 Jun 2020 20:03:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 06:22:38.738997
- Title: Evaluation of Fairness Trade-offs in Predicting Student Success
- Title(参考訳): 学生成功予測における公正トレードオフの評価
- Authors: Hansol Lee and Ren\'e F. Kizilcec
- Abstract要約: 大学経営記録に基づく学生成功の予測モデルを構築した。
3つの公正度尺度のうち2つは、性別と人種の偏見を示す。
- 参考スコア(独自算出の注目度): 0.4873362301533825
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Predictive models for identifying at-risk students early can help teaching
staff direct resources to better support them, but there is a growing concern
about the fairness of algorithmic systems in education. Predictive models may
inadvertently introduce bias in who receives support and thereby exacerbate
existing inequities. We examine this issue by building a predictive model of
student success based on university administrative records. We find that the
model exhibits gender and racial bias in two out of three fairness measures
considered. We then apply post-hoc adjustments to improve model fairness to
highlight trade-offs between the three fairness measures.
- Abstract(参考訳): リスクの高い学生を早期に識別するための予測モデルは、スタッフの直接的リソースを教育支援に役立てることができるが、教育におけるアルゴリズムシステムの公平性に関する懸念が高まっている。
予測モデルは、サポートを受ける人のバイアスを必然的に導入し、既存の不平等を悪化させる。
本稿では,大学経営記録に基づく学生成功予測モデルの構築により,この問題を考察する。
このモデルでは,3つの公正度尺度のうち2つに男女の偏見が認められた。
次に,3つの公正対策間のトレードオフを明らかにするために,モデルフェアネスを改善するためのポストホック調整を適用する。
関連論文リスト
- Is Your Model "MADD"? A Novel Metric to Evaluate Algorithmic Fairness
for Predictive Student Models [0.0]
本稿では,モデルの識別行動を分析するために,モデル絶対密度距離(MADD)を提案する。
オンライン授業における学生の成功を予測するための共通課題に対するアプローチを,いくつかの共通予測分類モデルを用いて評価した。
論文 参考訳(メタデータ) (2023-05-24T16:55:49Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Counterfactual Fair Opportunity: Measuring Decision Model Fairness with
Counterfactual Reasoning [5.626570248105078]
本研究は,不注意条件下での公正な場合において,反実的推論を用いて不公平なモデル行動を明らかにすることを目的とする。
対物フェアという対物機会の対物バージョンを定義し、対物サンプルのセンシティブな情報を分析する2つの新しい指標を紹介した。
論文 参考訳(メタデータ) (2023-02-16T09:13:53Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Modeling Techniques for Machine Learning Fairness: A Survey [17.925809181329015]
近年,機械学習モデルのバイアスを軽減するため,様々な手法が開発されている。
本稿では,プロセス内バイアス軽減技術の現状を概観する。
論文 参考訳(メタデータ) (2021-11-04T17:17:26Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Ethical Adversaries: Towards Mitigating Unfairness with Adversarial
Machine Learning [8.436127109155008]
個人や組織は、モデルデザイナやデプロイ担当者が責任を持つように、不公平な結果に気付き、テストし、批判します。
トレーニングデータセットから生じる不公平な表現を緩和する上で,これらのグループを支援するフレームワークを提供する。
我々のフレームワークは公平性を改善するために2つの相互運用敵に依存している。
論文 参考訳(メタデータ) (2020-05-14T10:10:19Z) - FairALM: Augmented Lagrangian Method for Training Fair Models with
Little Regret [42.66567001275493]
現在、我々がモデルに提示するデータセットのバイアスのため、公正な公開トレーニングが不公平なモデルにつながることは受け入れられている。
そこで本研究では,モデルのトレーニング中に公平性を同時に課すメカニズムについて検討する。
論文 参考訳(メタデータ) (2020-04-03T03:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。