論文の概要: Safeguarding Privacy: Privacy-Preserving Detection of Mind Wandering and Disengagement Using Federated Learning in Online Education
- arxiv url: http://arxiv.org/abs/2602.09904v1
- Date: Tue, 10 Feb 2026 15:40:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.651329
- Title: Safeguarding Privacy: Privacy-Preserving Detection of Mind Wandering and Disengagement Using Federated Learning in Online Education
- Title(参考訳): プライバシの保護: オンライン教育におけるフェデレートラーニングを用いたマインドランディング・ディエンゲージメントのプライバシ保護
- Authors: Anna Bodonhelyi, Mengdi Wang, Efe Bozkir, Babette Bühler, Enkelejda Kasneci,
- Abstract要約: 遠隔学習における行動・認知障害の相違に対処するために,デバイス間フェデレーション学習を利用したフレームワークを提案する。
顔の表情と視線特徴を用いた映像ベース認知解離検出モデルに適合する。
以上の結果から,学習者のエンゲージメントを促進するプライバシー保護教育技術への大きな期待が示された。
- 参考スコア(独自算出の注目度): 53.25191965774678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since the COVID-19 pandemic, online courses have expanded access to education, yet the absence of direct instructor support challenges learners' ability to self-regulate attention and engagement. Mind wandering and disengagement can be detrimental to learning outcomes, making their automated detection via video-based indicators a promising approach for real-time learner support. However, machine learning-based approaches often require sharing sensitive data, raising privacy concerns. Federated learning offers a privacy-preserving alternative by enabling decentralized model training while also distributing computational load. We propose a framework exploiting cross-device federated learning to address different manifestations of behavioral and cognitive disengagement during remote learning, specifically behavioral disengagement, mind wandering, and boredom. We fit video-based cognitive disengagement detection models using facial expressions and gaze features. By adopting federated learning, we safeguard users' data privacy through privacy-by-design and introduce a novel solution with the potential for real-time learner support. We further address challenges posed by eyeglasses by incorporating related features, enhancing overall model performance. To validate the performance of our approach, we conduct extensive experiments on five datasets and benchmark multiple federated learning algorithms. Our results show great promise for privacy-preserving educational technologies promoting learner engagement.
- Abstract(参考訳): 新型コロナウイルス(COVID-19)のパンデミック以来、オンラインコースは教育へのアクセスを拡大してきたが、直接のインストラクターサポートの欠如は、学習者の注意とエンゲージメントを自己規制する能力に挑戦している。
心をさまようと解離は学習結果に有害であり、ビデオベースのインジケータによる自動検出は、リアルタイム学習者支援のための有望なアプローチである。
しかしながら、マシンラーニングベースのアプローチでは、機密データを共有する必要がしばしばあり、プライバシー上の懸念が高まる。
フェデレーション学習は、分散モデルのトレーニングを可能にすると同時に、計算負荷を分散することで、プライバシ保護の代替手段を提供する。
本稿では,遠隔学習における行動・認知障害の相違,特に行動障害,心のさまき,退屈感に対処するために,クロスデバイス・フェデレーション・ラーニングを活用した枠組みを提案する。
顔の表情と視線特徴を用いた映像ベース認知解離検出モデルに適合する。
フェデレートラーニングを採用することにより,プライバシ・バイ・デザインによるユーザのデータプライバシ保護を実現し,リアルタイムラーニング支援の可能性を備えた新たなソリューションを導入する。
さらに、関連する特徴を取り入れ、全体のモデル性能を向上させることで、眼鏡による課題に対処する。
提案手法の有効性を検証するため,5つのデータセットに対して広範な実験を行い,複数のフェデレート学習アルゴリズムをベンチマークする。
以上の結果から,学習者のエンゲージメントを促進するプライバシー保護教育技術への大きな期待が示された。
関連論文リスト
- Shadow Unlearning: A Neuro-Semantic Approach to Fidelity-Preserving Faceless Forgetting in LLMs [10.135445130232265]
PIIを露出することなく、匿名の忘れデータ上で機械学習を行う、近似アンラーニングの新たなパラダイムであるシャドウアンラーニングを提案する。
さらに,シャドー・アンラーニングを実現するために,新たなプライバシ保護フレームワークであるニューロ・セマンティック・プロジェクタ・アンラーニング(NSPU)を提案する。
実験の結果,NSPUは非学習性能が優れ,モデルの有用性が保たれ,ユーザのプライバシが向上することがわかった。
論文 参考訳(メタデータ) (2026-01-07T12:11:25Z) - Privacy-Aware Lifelong Learning [14.83033354320841]
機械学習の分野は、要求された時に事前訓練されたモデルから、ある以前の知識を明示的に忘れることに焦点を当てている。
本稿では,タスク固有のスパースワークとパラメータ共有の最適化を含む,プライバシを意識した生涯学習(PALL)を提案する。
画像分類におけるPALLのスケーラビリティを実証的に実証し,最先端のソリューションを提供する。
論文 参考訳(メタデータ) (2025-05-16T07:27:00Z) - Benchmarking Vision Language Model Unlearning via Fictitious Facial Identity Dataset [92.99416966226724]
我々は、未学習アルゴリズムの有効性を頑健に評価するために設計された新しいVLMアンラーニングベンチマークであるFacial Identity Unlearning Benchmark (FIUBench)を紹介する。
情報ソースとその露出レベルを正確に制御する2段階評価パイプラインを適用した。
FIUBench 内の 4 つのベースライン VLM アンラーニングアルゴリズムの評価により,すべての手法がアンラーニング性能に制限されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-11-05T23:26:10Z) - Exploring Federated Unlearning: Review, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - Federated Crowdsensing: Framework and Challenges [20.110862329289272]
クラウドセンシングは、スマートシティアプリケーションにとって有望なセンシングパラダイムである。
プライバシー保護は、クラウドセンシングシステムにおける重要な問題の1つだ。
本稿では,各クラウドセンシング段階のプライバシー問題を分析する,連合型クラウドセンシングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-06T06:49:11Z) - Federated Learning and Differential Privacy: Software tools analysis,
the Sherpa.ai FL framework and methodological guidelines for preserving data
privacy [8.30788601976591]
本稿では,フェデレートラーニングと差分プライバシの全体観に基づいて構築されたSherpa.aiフェデレーションラーニングフレームワークを提案する。
本稿では,Sherpa.aiフェデレートラーニングフレームワークで方法論ガイドラインに従う方法について,分類と回帰ユースケースを用いて示す。
論文 参考訳(メタデータ) (2020-07-02T06:47:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。