論文の概要: A review of clustering models in educational data science towards
fairness-aware learning
- arxiv url: http://arxiv.org/abs/2301.03421v1
- Date: Mon, 9 Jan 2023 15:18:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 18:29:42.952644
- Title: A review of clustering models in educational data science towards
fairness-aware learning
- Title(参考訳): 公正学習に向けた教育データ科学におけるクラスタリングモデルの検討
- Authors: Tai Le Quy, Gunnar Friege, Eirini Ntoutsi
- Abstract要約: 本章は、クラスタリングモデルとその教育活動における公平さを包括的に調査する。
特に,教育活動に適用される公正クラスタリングモデルの検討に重点を置いている。
これらのモデルは、学生のデータを分析し、EDSの公平性を確保するための実用的なツールであると考えられている。
- 参考スコア(独自算出の注目度): 14.051419173519308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring fairness is essential for every education system. Machine learning
is increasingly supporting the education system and educational data science
(EDS) domain, from decision support to educational activities and learning
analytics. However, the machine learning-based decisions can be biased because
the algorithms may generate the results based on students' protected attributes
such as race or gender. Clustering is an important machine learning technique
to explore student data in order to support the decision-maker, as well as
support educational activities, such as group assignments. Therefore, ensuring
high-quality clustering models along with satisfying fairness constraints are
important requirements. This chapter comprehensively surveys clustering models
and their fairness in EDS. We especially focus on investigating the fair
clustering models applied in educational activities. These models are believed
to be practical tools for analyzing students' data and ensuring fairness in
EDS.
- Abstract(参考訳): 公平さの確保はあらゆる教育システムに不可欠である。
機械学習は、意思決定から教育活動、学習分析まで、教育システムと教育データサイエンス(EDS)ドメインをますますサポートしている。
しかし、アルゴリズムは、人種や性別といった生徒の保護された属性に基づいて結果を生成するため、機械学習に基づく決定は偏りがある。
クラスタリングは、意思決定者を支援するとともに、グループ割り当てなどの教育活動をサポートするために、学生データを調べるための重要な機械学習技術である。
したがって、公正性の制約を満たすとともに高品質なクラスタリングモデルを確保することが重要な要件である。
本章は、EDSにおけるクラスタリングモデルとその公平性について包括的に調査する。
特に,教育活動に適用される公平なクラスタリングモデルの検討に注目する。
これらのモデルは、学生のデータを分析し、EDSの公平性を確保するための実用的なツールであると考えられている。
関連論文リスト
- Analyzing Fairness of Computer Vision and Natural Language Processing Models [1.0923877073891446]
機械学習(ML)アルゴリズムは、医療、金融、教育、法執行など、さまざまな分野における意思決定において重要な役割を果たす。
広く採用されているにもかかわらず、これらのシステムは潜在的なバイアスや公平性の問題のために倫理的・社会的懸念を提起する。
本研究では,非構造化データセットに適用したコンピュータビジョンと自然言語処理(NLP)モデルの公平性の評価と改善に焦点を当てた。
論文 参考訳(メタデータ) (2024-12-13T06:35:55Z) - Analyzing Fairness of Classification Machine Learning Model with Structured Dataset [1.0923877073891446]
本研究では,分類タスクにおける構造化データセットに適用された機械学習モデルの公平性について検討する。
3つのフェアネスライブラリ、MicrosoftのFairlearn、IBMのAIF360、GoogleのWhat If Toolが採用されている。
この研究は、MLモデルのバイアスの程度を評価し、これらのライブラリの有効性を比較し、実践者に対して実行可能な洞察を導出することを目的としている。
論文 参考訳(メタデータ) (2024-12-13T06:31:09Z) - FAIREDU: A Multiple Regression-Based Method for Enhancing Fairness in Machine Learning Models for Educational Applications [1.24497353837144]
本稿では,複数機能にまたがる公平性向上を目的とした,新規かつ効果的な手法であるFAIREDUを紹介する。
モデル性能を損なうことなく公平性を向上するためのFAIREDUの有効性を評価する。
その結果, FAIREDUは, 性別, 人種, 年齢, その他の繊細な特徴の交叉性に対処し, モデル精度に最小限の影響を伴って, 最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-10-08T23:29:24Z) - Enhancing Generative Class Incremental Learning Performance with Model Forgetting Approach [50.36650300087987]
本研究は, ジェネレーティブ・クラス・インクリメンタル・ラーニング(GCIL, Generative Class Incremental Learning)への新たなアプローチを提案する。
我々は, 忘れる機構の統合により, 新たな知識獲得におけるモデルの性能が著しく向上することを発見した。
論文 参考訳(メタデータ) (2024-03-27T05:10:38Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Unifying Self-Supervised Clustering and Energy-Based Models [9.3176264568834]
自己教師付き学習と生成モデルとの間には,原則的な関連性を確立する。
シンボル接地問題の単純かつ非自明なインスタンス化に対処するために,我々の解法をニューロシンボリックな枠組みに統合できることが示される。
論文 参考訳(メタデータ) (2023-12-30T04:46:16Z) - A survey on datasets for fairness-aware machine learning [6.962333053044713]
多くのフェアネス対応機械学習ソリューションが提案されている。
本稿では,フェアネスを意識した機械学習に使用される実世界のデータセットについて概説する。
データセットのバイアスと公平性についてより深く理解するために、探索分析を用いて興味深い関係を考察する。
論文 参考訳(メタデータ) (2021-10-01T16:54:04Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。