論文の概要: Evaluating Federated Learning for At-Risk Student Prediction: A Comparative Analysis of Model Complexity and Data Balancing
- arxiv url: http://arxiv.org/abs/2508.18316v1
- Date: Sat, 23 Aug 2025 19:58:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.520507
- Title: Evaluating Federated Learning for At-Risk Student Prediction: A Comparative Analysis of Model Complexity and Data Balancing
- Title(参考訳): アトリスク学生予測のためのフェデレーション学習の評価:モデル複雑度とデータバランスの比較分析
- Authors: Rodrigo Tertulino,
- Abstract要約: 遠隔教育における高いドロップアウト率と失敗率は、学術機関にとって大きな課題である。
本研究は、イギリスの大学における学生のリスクを予測するために、初期の学術的パフォーマンスとデジタルエンゲージメントパターンに基づく機械学習モデルを開発し、評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High dropout and failure rates in distance education pose a significant challenge for academic institutions, making the proactive identification of at-risk students crucial for providing timely support. This study develops and evaluates a machine learning model based on early academic performance and digital engagement patterns from the large-scale OULAD dataset to predict student risk at a UK university. To address the practical challenges of data privacy and institutional silos that often hinder such initiatives, we implement the model using a Federated Learning (FL) framework. We compare model complexity (Logistic Regression vs. a Deep Neural Network) and data balancing. The final federated model demonstrates strong predictive capability, achieving an ROC AUC score of approximately 85% in identifying at-risk students. Our findings show that this federated approach provides a practical and scalable solution for institutions to build effective early-warning systems, enabling proactive student support while inherently respecting data privacy.
- Abstract(参考訳): 遠隔教育における高い退学率と失敗率は、学術機関にとって重要な課題であり、時間的支援に欠かせないリスクのある学生を積極的に特定する。
本研究は、イギリスの大学における学生のリスクを予測するために、大規模なOULADデータセットから、初期の学術的パフォーマンスとデジタルエンゲージメントパターンに基づく機械学習モデルを開発し、評価する。
データプライバシとそのようなイニシアチブを妨げる機関サイロの実践的な課題に対処するために、フェデレートラーニング(FL)フレームワークを使用してモデルを実装します。
モデル複雑性(ロジスティック回帰対ディープニューラルネットワーク)とデータバランシングを比較します。
最終フェデレーションモデルは強い予測能力を示し、リスクの高い学生の識別において約85%のROC AUCスコアを達成している。
このフェデレートされたアプローチは、組織が効果的な早期警戒システムを構築するための実用的でスケーラブルなソリューションを提供し、データプライバシを本質的に尊重しつつ、積極的な学生支援を可能にしていることを示す。
関連論文リスト
- Modelling higher education dropouts using sparse and interpretable post-clustering logistic regression [0.8437187555622164]
高等教育のドロップアウトは、世界中の第三次教育システムにとって重要な課題である。
本稿では,ロジスティック回帰の特殊形式として,大学ドロップアウト分析の文脈に特化して導入したモデルについて述べる。
論文 参考訳(メタデータ) (2025-05-12T14:05:23Z) - Fairness and Robustness in Machine Unlearning [20.758637391023345]
機械学習アルゴリズムにおける公平性と堅牢性に焦点を当てる。
実験では、現在の最先端の非学習アルゴリズムが敵攻撃に対する脆弱性を実証している。
中間層と最後の層でのアンラーニングが時間とメモリの複雑さに十分で費用対効果があることを実証する。
論文 参考訳(メタデータ) (2025-04-18T10:31:44Z) - AI-based identification and support of at-risk students: A case study of the Moroccan education system [5.199084419479099]
学生の退学は、個人的、家族的、学術的要因に影響される世界的な問題である。
本稿では,退学リスクのある学生を識別するAIによる予測モデル手法を提案する。
論文 参考訳(メタデータ) (2025-04-09T13:30:35Z) - Privacy-Preserved Automated Scoring using Federated Learning for Educational Research [1.2556373621040728]
本稿では,教育評価の自動評価のための統合学習(FL)フレームワークを提案する。
我々は,2つの最先端FL手法と集中学習ベースラインに対して,我々のモデルをベンチマークする。
その結果,本モデルが最も精度が高い(94.5%)ことが示唆された。
論文 参考訳(メタデータ) (2025-03-12T19:06:25Z) - Ten Challenging Problems in Federated Foundation Models [55.343738234307544]
フェデレーション・ファンデーション・モデル(Federated Foundation Models、FedFM)は、フェデレーション・モデルの一般的な能力とフェデレーション・ラーニングのプライバシー保護能力を融合させる分散学習パラダイムである。
本稿では,FedFMに固有の10の課題について,基礎理論,プライベートデータの利用,継続学習,非学習,非IIDおよびグラフデータ,双方向知識伝達,インセンティブ機構設計,ゲーム機構設計,モデル透かし,効率を包括的に要約する。
論文 参考訳(メタデータ) (2025-02-14T04:01:15Z) - Early Detection of At-Risk Students Using Machine Learning [0.0]
リスクの高い学生を対象としたスクリーニングにより,高等教育の継続と学生の退学率の持続的課題に取り組むことを目的とする。
この研究は、SVM(Support Vector Machines)、Naive Bayes、K-nearest neighbors(KNN)、決定木(Decision Trees)、ロジスティック回帰(Logistic Regression)、ランダムフォレスト(Random Forest)など、いくつかの機械学習モデルを検討する。
分析の結果,全てのアルゴリズムがリスクの高い学生の予測に許容できる結果をもたらすことが示唆された。
論文 参考訳(メタデータ) (2024-12-12T17:33:06Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - On the Robustness of Aspect-based Sentiment Analysis: Rethinking Model,
Data, and Training [109.9218185711916]
アスペクトベースの感情分析(ABSA)は、ソーシャルメディアのテキストやレビューの背後にある製品やサービスの特定の側面に対して、特定の感情の極性を自動的に推測することを目的としている。
我々は、モデル、データ、トレーニングを含むあらゆる可能な角度からボトルネックを体系的に再考することで、ABSAの堅牢性を高めることを提案する。
論文 参考訳(メタデータ) (2023-04-19T11:07:43Z) - Towards Robust Dataset Learning [90.2590325441068]
本稿では,頑健なデータセット学習問題を定式化するための三段階最適化法を提案する。
ロバストな特徴と非ロバストな特徴を特徴付ける抽象モデルの下で,提案手法はロバストなデータセットを確実に学習する。
論文 参考訳(メタデータ) (2022-11-19T17:06:10Z) - On the Robustness of Random Forest Against Untargeted Data Poisoning: An
Ensemble-Based Approach [42.81632484264218]
機械学習モデルでは、トレーニングセット(中毒)の分画の摂動が、モデルの精度を著しく損なう可能性がある。
本研究の目的は、ランダムな森林を標的のない無作為な毒殺攻撃から保護する、新しいハッシュベースのアンサンブルアプローチを実現することである。
論文 参考訳(メタデータ) (2022-09-28T11:41:38Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。