論文の概要: Counterfactual Fairness Evaluation of Machine Learning Models on Educational Datasets
- arxiv url: http://arxiv.org/abs/2504.11504v1
- Date: Tue, 15 Apr 2025 07:25:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:40:40.949382
- Title: Counterfactual Fairness Evaluation of Machine Learning Models on Educational Datasets
- Title(参考訳): 教育データセットを用いた機械学習モデルの対物フェアネス評価
- Authors: Woojin Kim, Hyeoncheol Kim,
- Abstract要約: グループフェアネスは教育において広く研究されているが、因果的文脈における個々のフェアネスに焦点を当てている。
本稿では、機械学習モデルの対実的公正性分析を行うことにより、教育データに対する対実的公正性の概念を考察する。
本研究は, 因果的属性の因果性および因果的個人的公平性について, 反事実的公正性が有意な洞察を与えることを示した。
- 参考スコア(独自算出の注目度): 4.7223923266180785
- License:
- Abstract: As machine learning models are increasingly used in educational settings, from detecting at-risk students to predicting student performance, algorithmic bias and its potential impacts on students raise critical concerns about algorithmic fairness. Although group fairness is widely explored in education, works on individual fairness in a causal context are understudied, especially on counterfactual fairness. This paper explores the notion of counterfactual fairness for educational data by conducting counterfactual fairness analysis of machine learning models on benchmark educational datasets. We demonstrate that counterfactual fairness provides meaningful insight into the causality of sensitive attributes and causal-based individual fairness in education.
- Abstract(参考訳): 機械学習モデルは、リスクの高い学生の検出から、生徒のパフォーマンスの予測、アルゴリズムバイアス、および生徒に対する潜在的な影響に至るまで、教育現場でますます使われている。
グループフェアネスは教育において広く研究されているが、因果的文脈における個々のフェアネスに関する研究は、特に反事実フェアネスについて検討されている。
本稿では,機械学習モデルに対して,ベンチマーク学習データセットを用いた対実フェアネス分析を行うことにより,教育データに対する対実フェアネスの概念を考察する。
本研究は, 因果的属性の因果性および因果的個人的公平性について, 反事実的公正性が有意な洞察を与えることを示した。
関連論文リスト
- Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - Fairness Evaluation with Item Response Theory [10.871079276188649]
本稿では機械学習(ML)モデルにおける公平性を評価するための新しいFair-IRTフレームワークを提案する。
項目特性曲線(ICC)の詳細な説明は、特定の個人に対して提供される。
公平性評価ツールとしてのこのフレームワークの有効性を実証する実験を行った。
論文 参考訳(メタデータ) (2024-10-20T22:25:20Z) - Rethinking Fair Representation Learning for Performance-Sensitive Tasks [19.40265690963578]
因果推論を用いて、データセットバイアスの異なるソースを定義し、定式化する。
我々は、分布シフト下での公正表現学習の性能を調べるために、様々な医学的モダリティにまたがる実験を行う。
論文 参考訳(メタデータ) (2024-10-05T11:01:16Z) - Toward Fairer Face Recognition Datasets [69.04239222633795]
顔認識と検証は、ディープ表現の導入によってパフォーマンスが向上したコンピュータビジョンタスクである。
実際のトレーニングデータセットにおける顔データとバイアスのセンシティブな性格による倫理的、法的、技術的な課題は、彼らの開発を妨げる。
生成されたトレーニングデータセットに階層属性のバランス機構を導入することにより、公平性を促進する。
論文 参考訳(メタデータ) (2024-06-24T12:33:21Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness Evaluation in Text Classification: Machine Learning
Practitioner Perspectives of Individual and Group Fairness [34.071324739205096]
モデルを評価するために使用する戦略を理解するために、機械学習の実践者たちと研究を行っている。
個人的経験を含む公平性評価戦略や,モデルの公正性をテストするために,ユーザがアイデンティティトークンのグループをどのように形成するかを見いだす。
論文 参考訳(メタデータ) (2023-03-01T17:12:49Z) - A review of clustering models in educational data science towards
fairness-aware learning [14.051419173519308]
本章は、クラスタリングモデルとその教育活動における公平さを包括的に調査する。
特に,教育活動に適用される公正クラスタリングモデルの検討に重点を置いている。
これらのモデルは、学生のデータを分析し、EDSの公平性を確保するための実用的なツールであると考えられている。
論文 参考訳(メタデータ) (2023-01-09T15:18:51Z) - Fair Inference for Discrete Latent Variable Models [12.558187319452657]
デュエルケアなしでデータに基づいて訓練された機械学習モデルは、特定の人口に対して不公平で差別的な行動を示すことが多い。
本研究では,変動分布に公平なペナルティを含む離散潜伏変数に対して,公平な変分推論手法を開発した。
提案手法の一般化と実世界への影響の可能性を示すため,刑事司法リスク評価のための特別目的グラフィカルモデルを構築した。
論文 参考訳(メタデータ) (2022-09-15T04:54:21Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。