論文の概要: A review of clustering models in educational data science towards
fairness-aware learning
- arxiv url: http://arxiv.org/abs/2301.03421v1
- Date: Mon, 9 Jan 2023 15:18:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 18:29:42.952644
- Title: A review of clustering models in educational data science towards
fairness-aware learning
- Title(参考訳): 公正学習に向けた教育データ科学におけるクラスタリングモデルの検討
- Authors: Tai Le Quy, Gunnar Friege, Eirini Ntoutsi
- Abstract要約: 本章は、クラスタリングモデルとその教育活動における公平さを包括的に調査する。
特に,教育活動に適用される公正クラスタリングモデルの検討に重点を置いている。
これらのモデルは、学生のデータを分析し、EDSの公平性を確保するための実用的なツールであると考えられている。
- 参考スコア(独自算出の注目度): 14.051419173519308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring fairness is essential for every education system. Machine learning
is increasingly supporting the education system and educational data science
(EDS) domain, from decision support to educational activities and learning
analytics. However, the machine learning-based decisions can be biased because
the algorithms may generate the results based on students' protected attributes
such as race or gender. Clustering is an important machine learning technique
to explore student data in order to support the decision-maker, as well as
support educational activities, such as group assignments. Therefore, ensuring
high-quality clustering models along with satisfying fairness constraints are
important requirements. This chapter comprehensively surveys clustering models
and their fairness in EDS. We especially focus on investigating the fair
clustering models applied in educational activities. These models are believed
to be practical tools for analyzing students' data and ensuring fairness in
EDS.
- Abstract(参考訳): 公平さの確保はあらゆる教育システムに不可欠である。
機械学習は、意思決定から教育活動、学習分析まで、教育システムと教育データサイエンス(EDS)ドメインをますますサポートしている。
しかし、アルゴリズムは、人種や性別といった生徒の保護された属性に基づいて結果を生成するため、機械学習に基づく決定は偏りがある。
クラスタリングは、意思決定者を支援するとともに、グループ割り当てなどの教育活動をサポートするために、学生データを調べるための重要な機械学習技術である。
したがって、公正性の制約を満たすとともに高品質なクラスタリングモデルを確保することが重要な要件である。
本章は、EDSにおけるクラスタリングモデルとその公平性について包括的に調査する。
特に,教育活動に適用される公平なクラスタリングモデルの検討に注目する。
これらのモデルは、学生のデータを分析し、EDSの公平性を確保するための実用的なツールであると考えられている。
関連論文リスト
- Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - GEDI: GEnerative and DIscriminative Training for Self-Supervised
Learning [3.6804038214708563]
我々は最先端の自己教師型学習目標について検討し、確率学習に基づく統一的な定式化を提案する。
我々は、この組み合わせフレームワークをGEDIと呼び、これはGEnerativeおよびDIscriminative Trainingの略である。
GEDIはクラスタリング性能において,既存の自己教師型学習戦略よりも広いマージンで優れていることを示す。
論文 参考訳(メタデータ) (2022-12-27T09:33:50Z) - Striving for data-model efficiency: Identifying data externalities on
group performance [75.17591306911015]
信頼できる、効果的で責任ある機械学習システムの構築は、トレーニングデータとモデリング決定の違いが、予測パフォーマンスにどのように影響するかを理解することに集中する。
我々は、特定のタイプのデータモデル非効率性に注目し、一部のソースからトレーニングデータを追加することで、集団の重要なサブグループで評価されるパフォーマンスを実際に低下させることができる。
以上の結果から,データ効率が正確かつ信頼性の高い機械学習の鍵となることが示唆された。
論文 参考訳(メタデータ) (2022-11-11T16:48:27Z) - FAIR-FATE: Fair Federated Learning with Momentum [0.41998444721319217]
本研究では,グループフェアネスの達成を目的としたFAIRフェデレート学習アルゴリズムを提案する。
我々の知る限りでは、公正なモメンタム推定を用いて公平性を達成することを目的とした機械学習における最初のアプローチである。
実世界のデータセットに対する実験結果から、FAIR-FATEは最先端のフェデレート学習アルゴリズムよりも優れています。
論文 参考訳(メタデータ) (2022-09-27T20:33:38Z) - FairFed: Enabling Group Fairness in Federated Learning [22.913999279079878]
フェデレーテッド・ラーニングは、複数のパーティで機械学習モデルを学習するための有望なソリューションと見なされている。
フェアネスを意識したアグリゲーション手法によりグループフェアネスを高める新しいアルゴリズムであるFairFedを提案する。
提案手法は,高度の不均一な属性分布の下で,最先端の公正な学習フレームワークよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-02T17:55:20Z) - A survey on datasets for fairness-aware machine learning [6.962333053044713]
多くのフェアネス対応機械学習ソリューションが提案されている。
本稿では,フェアネスを意識した機械学習に使用される実世界のデータセットについて概説する。
データセットのバイアスと公平性についてより深く理解するために、探索分析を用いて興味深い関係を考察する。
論文 参考訳(メタデータ) (2021-10-01T16:54:04Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - FairALM: Augmented Lagrangian Method for Training Fair Models with
Little Regret [42.66567001275493]
現在、我々がモデルに提示するデータセットのバイアスのため、公正な公開トレーニングが不公平なモデルにつながることは受け入れられている。
そこで本研究では,モデルのトレーニング中に公平性を同時に課すメカニズムについて検討する。
論文 参考訳(メタデータ) (2020-04-03T03:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。