論文の概要: FedL2T: Personalized Federated Learning with Two-Teacher Distillation for Seizure Prediction
- arxiv url: http://arxiv.org/abs/2510.08984v1
- Date: Fri, 10 Oct 2025 03:52:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.101778
- Title: FedL2T: Personalized Federated Learning with Two-Teacher Distillation for Seizure Prediction
- Title(参考訳): FedL2T:セズーア予測のための2教師蒸留による個人化フェデレーション学習
- Authors: Jionghao Lou, Jian Zhang, Zhongmei Li, Lanlan Chen, Enbo Feng,
- Abstract要約: フェデレートラーニング(FL)は、生データの代わりにモデル更新を共有することで、プライバシ保護による協調トレーニングを可能にする。
我々は、各クライアントに対して優れたパーソナライズされたモデルを生成する、パーソナライズド・フェデレーション・ラーニング・フレームワークであるFedL2Tを提案する。
2つのEEGデータセットの実験では、FedL2Tは最先端のFLメソッドを一貫して上回っている。
- 参考スコア(独自算出の注目度): 7.107485867141439
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The training of deep learning models in seizure prediction requires large amounts of Electroencephalogram (EEG) data. However, acquiring sufficient labeled EEG data is difficult due to annotation costs and privacy constraints. Federated Learning (FL) enables privacy-preserving collaborative training by sharing model updates instead of raw data. However, due to the inherent inter-patient variability in real-world scenarios, existing FL-based seizure prediction methods struggle to achieve robust performance under heterogeneous client settings. To address this challenge, we propose FedL2T, a personalized federated learning framework that leverages a novel two-teacher knowledge distillation strategy to generate superior personalized models for each client. Specifically, each client simultaneously learns from a globally aggregated model and a dynamically assigned peer model, promoting more direct and enriched knowledge exchange. To ensure reliable knowledge transfer, FedL2T employs an adaptive multi-level distillation strategy that aligns both prediction outputs and intermediate feature representations based on task confidence. In addition, a proximal regularization term is introduced to constrain personalized model updates, thereby enhancing training stability. Extensive experiments on two EEG datasets demonstrate that FedL2T consistently outperforms state-of-the-art FL methods, particularly under low-label conditions. Moreover, FedL2T exhibits rapid and stable convergence toward optimal performance, thereby reducing the number of communication rounds and associated overhead. These results underscore the potential of FedL2T as a reliable and personalized solution for seizure prediction in privacy-sensitive healthcare scenarios.
- Abstract(参考訳): 発作予測におけるディープラーニングモデルのトレーニングには、大量の脳波データが必要である。
しかし、アノテーションのコストとプライバシーの制約のため、十分なラベル付きEEGデータを取得することは困難である。
フェデレートラーニング(FL)は、生データの代わりにモデル更新を共有することで、プライバシ保護による協調トレーニングを可能にする。
しかし、実世界のシナリオにおける患者間変動のため、既存のFLベースの発作予測手法は、異種クライアント設定下での堅牢なパフォーマンスを達成するのに苦労する。
この課題に対処するため,FedL2Tを提案する。FedL2Tは,新しい2教師の知識蒸留戦略を利用して,各クライアントに対して優れたパーソナライズされたモデルを生成する。
具体的には、グローバルに集約されたモデルと動的に割り当てられたピアモデルから同時に学習し、より直接的な知識交換を促進する。
信頼性の高い知識伝達を保証するため、FedL2Tでは、タスク信頼度に基づく予測出力と中間特徴表現の両方を整合させる適応型多段階蒸留戦略を採用している。
さらに、パーソナライズされたモデル更新を制約し、トレーニング安定性を向上させるために、近似正規化項を導入する。
2つのEEGデータセットに対する大規模な実験により、FedL2Tは、特に低ラベル条件下で、最先端のFL法よりも一貫して優れていることが示された。
さらに、FedL2Tは、最適な性能に向けて迅速かつ安定した収束を示し、通信ラウンドの数とそれに伴うオーバーヘッドを減らす。
これらの結果は、プライバシに敏感な医療シナリオにおける発作予測のための信頼性とパーソナライズされたソリューションとしてのFedL2Tの可能性を強調している。
関連論文リスト
- Robust Molecular Property Prediction via Densifying Scarce Labeled Data [53.24886143129006]
薬物発見において、研究を進める上で最も重要な化合物は、しばしば訓練セットを越えている。
本稿では, ラベル付きデータを利用して, 分布内データ(ID)と分布外データ(OOD)を補間する2段階最適化手法を提案する。
論文 参考訳(メタデータ) (2025-06-13T15:27:40Z) - Blockchain-Enabled Privacy-Preserving Second-Order Federated Edge Learning in Personalized Healthcare [1.859970493489417]
フェデレートラーニング(FL)は、従来のクラウド中心の機械学習モデルにおいて、セキュリティとプライバシの課題に注目が集まっている。
1次FLアプローチは、異種非独立で同一に分散された(非id)データにより、パーソナライズされたモデルトレーニングにおいていくつかの課題に直面している。
近年,2次FLアプローチは,パーソナライズされたモデルトレーニングを改善しつつ,非IDデータセットの安定性と一貫性を維持している。
論文 参考訳(メタデータ) (2025-05-31T06:41:04Z) - DP2FL: Dual Prompt Personalized Federated Learning in Foundation Models [1.8408298575385194]
ファンデーションモデルは強力な特徴抽出機能を示し、限られたローカルデータを微調整することでこの問題を軽減することができる。
本稿では,グローバルなタスク認識とローカルデータ駆動型インサイトを組み合わせたDual Prompt Personalized Federated Learningフレームワークを提案する。
DP2FLの迅速な設計と集約戦略の有効性を, 高度に異質な環境下で実験的に検証した。
論文 参考訳(メタデータ) (2025-04-23T02:13:56Z) - FedKBP: Federated dose prediction framework for knowledge-based planning in radiation therapy [0.5575343193009424]
ドーズ予測は、患者固有の線量分布を自動的に生成することにより、知識ベース計画(KBP)において重要な役割を果たす。
深層学習に基づく線量予測手法の最近の進歩は、データコントリビュータ間の協調が必要である。
フェデレーションラーニング(FL)がソリューションとして登場し、医療センターは患者のデータのプライバシーを損なうことなく、ディープラーニングモデルを共同で訓練することができる。
論文 参考訳(メタデータ) (2024-08-17T14:57:14Z) - FedD2S: Personalized Data-Free Federated Knowledge Distillation [19.975420988169454]
本稿では,知識蒸留を活用した個人化フェデレートラーニング(pFL)のためのFedD2Sという新しい手法を提案する。
FedD2Sは、データフリーな知識蒸留プロセスにディープ・ツー・シャロー・レイヤ・ドロップング機構を組み込んで、局所モデルパーソナライズを強化している。
提案手法は,クライアント間の収束の高速化と公平性の向上を特徴とする,優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-16T17:36:51Z) - Knowledge Rumination for Client Utility Evaluation in Heterogeneous Federated Learning [12.50871784200551]
フェデレートラーニング(FL)は、いくつかのクライアントが生データを開示することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
非IIDデータと古いモデルは、グローバルモデルの実用性を低下させ、トレーニング失敗につながる可能性があるため、AFLに重大な課題をもたらす。
我々はFedHistと呼ばれる新しいAFLフレームワークを提案し、非IIDデータと勾配安定度の両方がもたらす課題を効果的に解決する。
論文 参考訳(メタデータ) (2023-12-16T11:40:49Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。