論文の概要: Privacy-Preserving Personalization in Education: A Federated Recommender System for Student Performance Prediction
- arxiv url: http://arxiv.org/abs/2509.10516v1
- Date: Wed, 03 Sep 2025 11:28:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-21 06:05:45.774286
- Title: Privacy-Preserving Personalization in Education: A Federated Recommender System for Student Performance Prediction
- Title(参考訳): 教育におけるプライバシ保護型パーソナライゼーション:学生のパフォーマンス予測のためのフェデレーションレコメンダシステム
- Authors: Rodrigo Tertulino,
- Abstract要約: 教育のデジタル化は、データ駆動のパーソナライズに先例のない機会を提供するが、学生のデータプライバシーの重大な課題をもたらす。
フェデレートラーニング(FL)を用いた新しいプライバシ保護レコメンデータシステムを提案し,その課題に対処するために評価を行った。
このアプローチでは、大規模なASSISTments教育データセットから、リッチでエンジニアリングされた機能を備えたDeep Neural Network(DNN)を使用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing digitalization of education presents unprecedented opportunities for data-driven personalization, yet it introduces significant student data privacy challenges. Conventional recommender systems rely on centralized data, a paradigm often incompatible with modern data protection regulations. A novel privacy-preserving recommender system is proposed and evaluated to address this critical issue using Federated Learning (FL). The approach utilizes a Deep Neural Network (DNN) with rich, engineered features from the large-scale ASSISTments educational dataset. A rigorous comparative analysis of federated aggregation strategies was conducted, identifying FedProx as a significantly more stable and effective method for handling heterogeneous student data than the standard FedAvg baseline. The optimized federated model achieves a high-performance F1-Score of 76.28\%, corresponding to 82.85\% of the performance of a powerful, centralized XGBoost model. These findings validate that a federated approach can provide highly effective content recommendations without centralizing sensitive student data. Consequently, our work presents a viable and robust solution to the personalization-privacy dilemma in modern educational platforms.
- Abstract(参考訳): 教育のデジタル化の増大は、データ駆動のパーソナライズに先例のない機会をもたらすが、学生のデータプライバシーに重大な課題をもたらす。
従来のレコメンデーターシステムは、現代のデータ保護規則と互換性のないパラダイムである集中型データに依存している。
フェデレートラーニング(FL)を用いて,この重要な問題に対処するために,新たなプライバシ保存レコメンデータシステムを提案し,評価した。
このアプローチでは、大規模なASSISTments教育データセットから、リッチでエンジニアリングされた機能を備えたDeep Neural Network(DNN)を使用する。
FedProxを標準のFedAvgベースラインよりもはるかに安定かつ効果的に学生データを扱う方法として同定した,連合集約戦略の厳密な比較分析を行った。
最適化されたフェデレーションモデルは、強力な集中型XGBoostモデルの性能の82.85\%に相当する76.28\%の高性能F1スコアを達成する。
これらの結果から, 学生データを集中化せずに, 効果的なコンテンツレコメンデーションが実現できることが示唆された。
その結果、現代の教育プラットフォームにおけるパーソナライズとプライバシのジレンマに対する、実用的で堅牢な解決策が提示された。
関連論文リスト
- Centralized vs. Federated Learning for Educational Data Mining: A Comparative Study on Student Performance Prediction with SAEB Microdata [0.0]
本研究は,フェデレート学習,特にFedProxアルゴリズムの有効性と有効性を評価し,学生の成績を予測する。
この分析は200万人以上の学生の記録で行われ、中央集権モデルの精度は63.96%に達した。
注目すべきは、フェデレートされたモデルが最高精度61.23%に達したことだ。
論文 参考訳(メタデータ) (2025-08-27T10:30:25Z) - Robust Federated Learning with Confidence-Weighted Filtering and GAN-Based Completion under Noisy and Incomplete Data [0.0]
フェデレートラーニング(FL)は、分散化されたクライアントデータセット間のデータのプライバシを維持しながら、協調的なモデルトレーニングのための効果的なソリューションを提供する。
本研究では,ノイズやクラス不均衡,ラベルの欠落など,データ品質問題に体系的に対処するフェデレート学習手法を提案する。
以上の結果から,この手法はデータ品質の課題を効果的に軽減し,堅牢でスケーラブルでプライバシに適合したソリューションを提供することが示唆された。
論文 参考訳(メタデータ) (2025-05-14T18:49:18Z) - Privacy-Preserving Federated Embedding Learning for Localized Retrieval-Augmented Generation [60.81109086640437]
我々はFedE4RAG(Federated Retrieval-Augmented Generation)と呼ばれる新しいフレームワークを提案する。
FedE4RAGはクライアント側RAG検索モデルの協調トレーニングを容易にする。
モデルパラメータの保護にフェデレート学習の準同型暗号化を適用する。
論文 参考訳(メタデータ) (2025-04-27T04:26:02Z) - FedAWA: Adaptive Optimization of Aggregation Weights in Federated Learning Using Client Vectors [50.131271229165165]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
ユーザの行動、好み、デバイス特性の相違から生じるデータの異質性は、連合学習にとって重要な課題である。
本稿では,学習過程におけるクライアントベクトルに基づくアダプティブ重み付けを適応的に調整する手法であるAdaptive Weight Aggregation (FedAWA)を提案する。
論文 参考訳(メタデータ) (2025-03-20T04:49:40Z) - Privacy-Preserved Automated Scoring using Federated Learning for Educational Research [1.2556373621040728]
本稿では,教育評価の自動評価のための統合学習(FL)フレームワークを提案する。
我々は,2つの最先端FL手法と集中学習ベースラインに対して,我々のモデルをベンチマークする。
その結果,本モデルが最も精度が高い(94.5%)ことが示唆された。
論文 参考訳(メタデータ) (2025-03-12T19:06:25Z) - Advancing Personalized Federated Learning: Integrative Approaches with AI for Enhanced Privacy and Customization [0.0]
本稿では,最先端AI技術を用いてPFLを強化する新しい手法を提案する。
本稿では、個々のクライアントモデルの性能を高め、堅牢なプライバシ保護機構を保証するモデルを提案する。
この研究は、真のパーソナライズされたプライバシを重視したAIシステムの新たな時代への道を開くものだ。
論文 参考訳(メタデータ) (2025-01-30T07:03:29Z) - Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - FedSat: A Statistical Aggregation Approach for Class Imbalanced Clients in Federated Learning [2.5628953713168685]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習のための有望なパラダイムとして登場した。
本稿では,データの不均一性,すなわちラベルスキューネス,不足クラス,量スキューネスの3つの形態を扱うために設計された新しいFLアプローチであるFedSatを提案する。
さまざまなデータヘテロジニティ設定の実験は、FedSatが最先端のベースラインを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2024-07-04T11:50:24Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。