論文の概要: Dynamic Participation in Federated Learning: Benchmarks and a Knowledge Pool Plugin
- arxiv url: http://arxiv.org/abs/2511.16523v1
- Date: Thu, 20 Nov 2025 16:36:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.723543
- Title: Dynamic Participation in Federated Learning: Benchmarks and a Knowledge Pool Plugin
- Title(参考訳): フェデレーション学習における動的参加 - ベンチマークと知識プールプラグイン
- Authors: Ming-Lun Lee, Fu-Shiang Yang, Cheng-Kuan Lin, Yan-Ann Chen, Chih-Yu Lin, Yu-Chee Tseng,
- Abstract要約: フェデレートラーニング(FL)は、クライアントが分散的な方法で共有モデルを協調的にトレーニングすることを可能にする。
既存のFL研究の多くは、動的参加の実践的なシナリオを見越して、一貫したクライアント参加を前提としている。
動的クライアント参加下でFLモデルをベンチマークするために明示的に設計された最初のオープンソースフレームワークを提示する。
- 参考スコア(独自算出の注目度): 10.912739346462525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables clients to collaboratively train a shared model in a distributed manner, setting it apart from traditional deep learning paradigms. However, most existing FL research assumes consistent client participation, overlooking the practical scenario of dynamic participation (DPFL), where clients may intermittently join or leave during training. Moreover, no existing benchmarking framework systematically supports the study of DPFL-specific challenges. In this work, we present the first open-source framework explicitly designed for benchmarking FL models under dynamic client participation. Our framework provides configurable data distributions, participation patterns, and evaluation metrics tailored to DPFL scenarios. Using this platform, we benchmark four major categories of widely adopted FL models and uncover substantial performance degradation under dynamic participation. To address these challenges, we further propose Knowledge-Pool Federated Learning (KPFL), a generic plugin that maintains a shared knowledge pool across both active and idle clients. KPFL leverages dual-age and data-bias weighting, combined with generative knowledge distillation, to mitigate instability and prevent knowledge loss. Extensive experiments demonstrate the significant impact of dynamic participation on FL performance and the effectiveness of KPFL in improving model robustness and generalization.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、クライアントが分散した方法で共有モデルを協調的にトレーニングし、従来のディープラーニングのパラダイムと区別することを可能にする。
しかし、既存のFL研究の多くは、クライアントがトレーニング中に断続的に参加または離脱する動的参加(DPFL)の実践シナリオを見越して、一貫したクライアント参加を前提としている。
さらに、DPFL固有の課題の研究を体系的に支援する既存のベンチマークフレームワークは存在しない。
本研究では,動的クライアント参加下でFLモデルのベンチマークを行うために設計された,最初のオープンソースフレームワークを提案する。
本フレームワークは,DPFLシナリオに適した構成可能なデータ配信,参加パターン,評価指標を提供する。
このプラットフォームを用いて、広く採用されているFLモデルの4つの主要なカテゴリをベンチマークし、動的参加下での大幅な性能劣化を明らかにする。
これらの課題に対処するために、我々はさらに、アクティブクライアントとアイドルクライアントの両方で共有知識プールを維持する汎用プラグインであるKPFL(Knowledge-Pool Federated Learning)を提案する。
KPFLは、二重年齢とデータバイアス重み付け、生成的知識蒸留と組み合わせて不安定性を緩和し、知識損失を防ぐ。
大規模実験により, 動的参加がFL性能に与える影響と, KPFLの有効性がモデルロバスト性および一般化に及ぼす影響を実証した。
関連論文リスト
- FairEquityFL -- A Fair and Equitable Client Selection in Federated Learning for Heterogeneous IoV Networks [10.23221748938675]
フェデレートラーニング(FL)は、機械学習における多くのアプリケーションに広く採用されている。
インターネット・オブ・ビークルズ (Internet of Vehicles, IoV) は、FLを利用してより効率的にモデルを訓練する、有望な応用の1つである。
各FLトレーニングラウンドには、クライアントのサブセットのみが参加できるため、クライアント選択プロセスの公平性に関する課題が発生する。
論文 参考訳(メタデータ) (2025-09-24T14:48:29Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Contrastive encoder pre-training-based clustered federated learning for
heterogeneous data [17.580390632874046]
フェデレートラーニング(FL)は、分散クライアントがデータのプライバシを保持しながら、グローバルモデルを協調的にトレーニングすることを可能にする。
本稿では,モデル収束とFLシステム全体の性能を改善するために,CP-CFL(Contrative Pre-training-based Clustered Federated Learning)を提案する。
論文 参考訳(メタデータ) (2023-11-28T05:44:26Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - Confidence-aware Personalized Federated Learning via Variational
Expectation Maximization [34.354154518009956]
パーソナライズド・フェデレーション・ラーニング(PFL)のための新しいフレームワークを提案する。
PFLは、クライアント間で共有モデルをトレーニングする分散学習スキームである。
階層的モデリングと変分推論に基づくPFLの新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T20:12:27Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - A Fair Federated Learning Framework With Reinforcement Learning [23.675056844328]
フェデレートラーニング(Federated Learning, FL)は、多くのクライアントが中央サーバの協調の下でモデルを協調的にトレーニングするパラダイムである。
本稿では,クライアントにアグリゲーション重み付けを割り当てるポリシを自動的に学習するPG-FFLという強化学習フレームワークを提案する。
フレームワークの有効性を検証するため、多様なデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2022-05-26T15:10:16Z) - FL Games: A federated learning framework for distribution shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するためのゲーム理論のフレームワークであるFL Gamesを提案する。
論文 参考訳(メタデータ) (2022-05-23T07:51:45Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - Collaborative Fairness in Federated Learning [24.7378023761443]
深層学習のための新しい協調フェアフェデレーションラーニング(CFFL)フレームワークを提案する。
CFFLは参加者に異なるモデルに収束させ、予測性能を損なうことなく公正を達成する。
ベンチマークデータセットの実験では、CFFLは高い公正性を達成し、分散フレームワークに匹敵する精度を提供する。
論文 参考訳(メタデータ) (2020-08-27T14:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。