論文の概要: Cross-Institutional Transfer Learning for Educational Models:
Implications for Model Performance, Fairness, and Equity
- arxiv url: http://arxiv.org/abs/2305.00927v1
- Date: Mon, 1 May 2023 16:27:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 12:44:53.942557
- Title: Cross-Institutional Transfer Learning for Educational Models:
Implications for Model Performance, Fairness, and Equity
- Title(参考訳): 教育モデルにおける相互伝達学習--モデル性能,公平性,公平性への示唆
- Authors: Josh Gardner, Renzhe Yu, Quan Nguyen, Christopher Brooks, Rene
Kizilcec
- Abstract要約: 本研究では,高等教育における経験的ケーススタディを通したクロス・インスティカル・ラーニングについて検討する。
実世界のデータ共有制約とモデル共有制約の下でのクロス機関間転送の実現可能性について検討する。
数十のモデルと転送スキームで評価された公正さと正確さのトレードオフの証拠は見つからない。
- 参考スコア(独自算出の注目度): 8.762925492954777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern machine learning increasingly supports paradigms that are
multi-institutional (using data from multiple institutions during training) or
cross-institutional (using models from multiple institutions for inference),
but the empirical effects of these paradigms are not well understood. This
study investigates cross-institutional learning via an empirical case study in
higher education. We propose a framework and metrics for assessing the utility
and fairness of student dropout prediction models that are transferred across
institutions. We examine the feasibility of cross-institutional transfer under
real-world data- and model-sharing constraints, quantifying model biases for
intersectional student identities, characterizing potential disparate impact
due to these biases, and investigating the impact of various
cross-institutional ensembling approaches on fairness and overall model
performance. We perform this analysis on data representing over 200,000
enrolled students annually from four universities without sharing training data
between institutions.
We find that a simple zero-shot cross-institutional transfer procedure can
achieve similar performance to locally-trained models for all institutions in
our study, without sacrificing model fairness. We also find that stacked
ensembling provides no additional benefits to overall performance or fairness
compared to either a local model or the zero-shot transfer procedure we tested.
We find no evidence of a fairness-accuracy tradeoff across dozens of models and
transfer schemes evaluated. Our auditing procedure also highlights the
importance of intersectional fairness analysis, revealing performance
disparities at the intersection of sensitive identity groups that are concealed
under one-dimensional analysis.
- Abstract(参考訳): 現代の機械学習は、多制度的なパラダイム(訓練中の複数の機関のデータを使用する)や相互制度的なパラダイム(推論のための複数の機関のモデルを使用する)をますますサポートしているが、これらのパラダイムの実証的な効果はよく理解されていない。
本研究では,高等教育における経験的ケーススタディを通したクロスインスティカルラーニングについて検討する。
本稿では,学生のドロップアウト予測モデルの有用性と妥当性を評価するためのフレームワークと指標を提案する。
本研究では,実世界データ共有制約およびモデル共有制約下でのクロス施設間移動の実現可能性,交差する学生のアイデンティティに対するモデルバイアスの定量化,これらのバイアスによる潜在的異種影響のキャラクタリゼーション,公平性とモデル全体のパフォーマンスに対する様々なクロス施設間センシングアプローチの影響について検討する。
この分析は,4大学から毎年20万人以上の学生を対象に,機関間での研修データを共有することなく実施されている。
本研究では, モデルフェアネスを犠牲にすることなく, 簡易なゼロショットクロスインスティカルトランスファー法により, 局所学習モデルと類似した性能が得られた。
また、スタック化されたensemblingは、テストしたローカルモデルやゼロショット転送手順と比較して、全体的なパフォーマンスや公平性に新たなメリットがないことも分かりました。
数十のモデルと転送スキームで評価された公平なトレードオフの証拠は見つからない。
また,1次元解析で隠蔽された機密識別群の交点における性能格差を明らかにすることにより,交差的公平性分析の重要性を強調した。
関連論文リスト
- Cross-Modal Few-Shot Learning: a Generative Transfer Learning Framework [58.362064122489166]
本稿では,複数モーダルからインスタンスを識別するクロスモーダルなFew-Shot Learningタスクを提案する。
本稿では,1つの段階からなる生成的転帰学習フレームワークを提案する。1つは豊富な一助データに対する学習を伴い,もう1つは新しいデータに適応するための転帰学習に焦点を当てる。
以上の結果から,GTLは4つの異なるマルチモーダルデータセット間の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-14T16:09:38Z) - Data vs. Model Machine Learning Fairness Testing: An Empirical Study [23.535630175567146]
モデルトレーニング前後の公平性をテストすることによって、より包括的なアプローチを評価するための第一歩を踏み出します。
モデル依存度と独立公平度の関係を実証的に分析し,提案手法の有効性を評価する。
以上の結果から, トレーニング前の公平性テストは, バイアスデータ収集プロセスの早期取得において, より安価かつ効果的な手段であることが示唆された。
論文 参考訳(メタデータ) (2024-01-15T14:14:16Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Multi-Layer Personalized Federated Learning for Mitigating Biases in Student Predictive Analytics [8.642174401125263]
本稿では,学生グループ化基準の異なる層にまたがる推論精度を最適化する多層パーソナライズドフェデレーションラーニング手法を提案する。
提案手法では,個別の学生サブグループに対するパーソナライズされたモデルがグローバルモデルから導出される。
3つの実世界のオンラインコースデータセットの実験は、既存の学生モデルベンチマークよりも、我々のアプローチによって達成された大きな改善を示している。
論文 参考訳(メタデータ) (2022-12-05T17:27:28Z) - Mitigating Biases in Student Performance Prediction via Attention-Based
Personalized Federated Learning [7.040747348755578]
従来の学習に基づく学生モデリングのアプローチは、データの可用性のバイアスにより、表現不足の学生グループにあまり一般化しない。
本研究では,オンライン学習活動から学生のパフォーマンスを予測する手法を提案し,人種や性別などの異なる集団を対象とした推論精度を最適化する。
論文 参考訳(メタデータ) (2022-08-02T00:22:20Z) - Fairness in Federated Learning for Spatial-Temporal Applications [9.333236221677046]
フェデレートラーニングでは、携帯電話などのリモートデバイス上で統計モデルをトレーニングする。
本研究では,空間時空間モデルにおける公正度の測定と評価に利用可能な現在の指標とアプローチについて論じる。
我々は、これらのメトリクスとアプローチをどのように再定義して、連合学習環境で直面する課題に対処するかを提案する。
論文 参考訳(メタデータ) (2022-01-17T19:23:15Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Self-Supervised Models are Continual Learners [79.70541692930108]
本研究では, 自己教師付き損失関数を連続学習のための蒸留機構にシームレスに変換可能であることを示す。
我々は,学習した表現の質を大幅に向上させる連続的自己教師型視覚表現学習の枠組みを考案した。
論文 参考訳(メタデータ) (2021-12-08T10:39:13Z) - Auditing Fairness and Imputation Impact in Predictive Analytics for
Higher Education [0.0]
高等教育における予測分析の導入には2つの大きな障壁がある。
デプロイにおける民主化の欠如と、不平等を悪化させる可能性を挙げる。
論文 参考訳(メタデータ) (2021-09-13T05:08:40Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。