論文の概要: Federated Learning with Dynamic Client Arrival and Departure: Convergence and Rapid Adaptation via Initial Model Construction
- arxiv url: http://arxiv.org/abs/2410.05662v2
- Date: Fri, 30 May 2025 18:51:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-03 20:53:53.009056
- Title: Federated Learning with Dynamic Client Arrival and Departure: Convergence and Rapid Adaptation via Initial Model Construction
- Title(参考訳): 動的クライアント予約と分割によるフェデレーション学習:初期モデル構築による収束と迅速な適応
- Authors: Zhan-Lun Chang, Dong-Jun Han, Seyyedali Hosseinalipour, Mung Chiang, Christopher G. Brinton,
- Abstract要約: ほとんどのフェデレートされた学習アプローチは、固定されたクライアントセットを前提とします。
現実のシナリオでは、クライアントが特定のタスクに対するニーズや関心に基づいてシステムに参加したり、去ったりすることが多い。
本稿では,クライアントがシステムに参加・離脱するたびに,新しいクライアントセットへの迅速な適応を可能にするアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 24.71144869427636
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most federated learning (FL) approaches assume a fixed client set. However, real-world scenarios often involve clients dynamically joining or leaving the system based on their needs or interest in specific tasks. This dynamic setting introduces unique challenges: (1) the optimization objective evolves with the active client set, unlike traditional FL with a static objective; and (2) the current global model may no longer serve as an effective initialization for subsequent rounds, potentially hindering adaptation. To address these challenges, we first provide a convergence analysis under a non-convex loss with a dynamic client set, accounting for factors such as gradient noise, local training iterations, and data heterogeneity. Building on this analysis, we propose a model initialization algorithm that enables rapid adaptation to new client sets whenever clients join or leave the system. Our key idea is to compute a weighted average of previous global models, guided by gradient similarity, to prioritize models trained on data distributions that closely align with the current client set, thereby accelerating recovery from distribution shifts. This plug-and-play algorithm is designed to integrate seamlessly with existing FL methods, offering broad applicability in practice. Experimental results on diverse datasets including both image and text domains, varied label distributions, and multiple FL algorithms demonstrate the effectiveness of the proposed approach across a range of scenarios.
- Abstract(参考訳): ほとんどの連合学習(FL)アプローチは、固定されたクライアントセットを前提としています。
しかしながら、現実世界のシナリオでは、クライアントが自身のニーズや特定のタスクに対する関心に基づいて、動的にシステムに参加または離脱することが多い。
静的な目的を持つ従来のFLとは異なり、最適化の目的はアクティブなクライアントセットとともに進化し、(2)現在のグローバルモデルはその後のラウンドの効果的な初期化として機能しなくなり、適応を妨げる可能性がある。
これらの課題に対処するために、我々はまず動的クライアントセットを用いて非凸損失下で収束解析を行い、勾配雑音、局所的なトレーニングイテレーション、データ不均一性などの要因を考慮に入れた。
この分析に基づいて,クライアントがシステムに参加・離脱するたびに,新しいクライアントセットへの迅速な適応を可能にするモデル初期化アルゴリズムを提案する。
我々のキーとなる考え方は、勾配の類似性によって導かれる従来のグローバルモデルの重み付け平均を計算し、現在のクライアントセットと密に一致したデータ分散に基づいて訓練されたモデルを優先順位付けすることで、分散シフトからの回復を加速することである。
このプラグアンドプレイアルゴリズムは、既存のFLメソッドとシームレスに統合するように設計されており、実際に広く適用可能である。
画像領域とテキスト領域、ラベル分布、複数のFLアルゴリズムを含む多様なデータセットの実験結果から、提案手法の有効性が様々なシナリオで示されている。
関連論文リスト
- Dynamic Allocation Hypernetwork with Adaptive Model Recalibration for Federated Continual Learning [49.508844889242425]
適応型モデル再構成(FedDAH)を用いた動的アロケーション・ハイパーネットワーク(動的アロケーション・ハイパーネットワーク)の医用領域におけるサーバサイドFCLパターンを提案する。
FedDAHは、クライアント間で異なる動的タスクストリームの下での協調学習を容易にするように設計されている。
バイアス最適化のために,従来のモデルの変更候補を現在のサーバ更新に組み込むために,新しい適応モデル再校正(AMR)を導入する。
論文 参考訳(メタデータ) (2025-03-25T00:17:47Z) - Dynamic Allocation Hypernetwork with Adaptive Model Recalibration for FCL [49.508844889242425]
適応型モデル再校正(textbfFedDAH)を用いた動的アロケーション・ハイパーネットワークの医療領域におけるサーバサイドFCLパターンを提案する。
バイアス最適化のために,従来のモデルの変更候補を現在のサーバ更新に組み込むために,新しい適応モデル再校正(AMR)を導入する。
AMOSデータセットの実験では、異なるタスクストリームを持つサイトの他のFCLメソッドよりもFedDAHの方が優れていることが示されています。
論文 参考訳(メタデータ) (2025-03-23T13:12:56Z) - Towards Seamless Hierarchical Federated Learning under Intermittent Client Participation: A Stagewise Decision-Making Methodology [31.571298699019255]
Hierarchical Federated Learning (HFL)は、クライアントを複数のクラスタにまとめ、中間モデルアグリゲーションにエッジノードを使用する。
HFLに関する現在の研究は主に、安定した固定されたクライアントセットを持つシナリオにおけるモデル精度、レイテンシ、エネルギー消費の向上に焦点を当てている。
本研究は, 断続的クライアント参加下でのHFLにおけるクライアント選択とクライアント間アソシエーションの最適化について検討する。
論文 参考訳(メタデータ) (2025-02-13T13:16:10Z) - Feasible Learning [78.6167929413604]
本稿では,サンプル中心の学習パラダイムであるFeasible Learning(FL)を紹介する。
大規模言語モデルにおける画像分類, 年齢回帰, 好みの最適化といった経験的分析により, FLを用いて訓練したモデルでは, 平均的性能に限界があるものの, ERMと比較して改善された尾の挙動を示しながらデータから学習できることが実証された。
論文 参考訳(メタデータ) (2025-01-24T20:39:38Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Incentive-Compatible Federated Learning with Stackelberg Game Modeling [11.863770989724959]
適応ガンマベースのStackelbergゲームに基づく新しいフェデレートラーニングフレームワークであるFLammaを紹介する。
当社のアプローチでは、サーバがリーダとして機能し、動的に崩壊要因を調整し、クライアントはフォロワーとして、その効用を最大化するローカルエポックの数を最適に選択します。
時間が経つにつれて、サーバはクライアントの影響を徐々にバランスさせ、最初は高いコントリビューションのクライアントに報酬を与え、その影響を徐々にレベルアップさせ、システムをStackelberg Equilibriumに誘導する。
論文 参考訳(メタデータ) (2025-01-05T21:04:41Z) - FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - PraFFL: A Preference-Aware Scheme in Fair Federated Learning [5.9403570178003395]
フェアフェデレーション学習パラダイム( PraFFL と呼ばれる)における優先度認識方式を提案する。
理論的には、PrafFLは各クライアントの任意の好みに合わせて最適なモデルを提供し、その線形収束を示すことができる。
論文 参考訳(メタデータ) (2024-04-13T11:40:05Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Addressing Membership Inference Attack in Federated Learning with Model Compression [8.842172558292027]
機械学習のプライバシ保護ソリューションとしてフェデレートラーニング(FL)が提案されている。
最近の研究によると、FLはメンバーシップ推論攻撃によってプライベートクライアントデータを漏洩させることができる。
これらの攻撃の有効性は、クライアントのデータセットのサイズとモデルの複雑さと負の相関関係があることを示します。
論文 参考訳(メタデータ) (2023-11-29T15:54:15Z) - Utilizing Free Clients in Federated Learning for Focused Model
Enhancement [9.370655190768163]
Federated Learning(FL)は、分散機械学習のアプローチで、分散化された異種データのモデルを学ぶ。
我々はこの課題に対処するためにFedALIGN(Federated Adaptive Learning with Inclusion of Global Needs)を提案する。
論文 参考訳(メタデータ) (2023-10-06T18:23:40Z) - FedJETs: Efficient Just-In-Time Personalization with Federated Mixture
of Experts [48.78037006856208]
FedJETsは、Federated Learning(FL)セットアップ内でMixture-of-Experts(MoE)フレームワークを使用することで、新しいソリューションである。
我々の方法は、クライアントの多様性を活用して、クラスのサブセットの異なる専門家を訓練し、最も関係のある専門家に入力をルーティングするゲーティング機能を提供します。
我々の手法は、競争力のあるゼロショット性能を維持しながら、アートFL設定時の精度を最大18%向上させることができる。
論文 参考訳(メタデータ) (2023-06-14T15:47:52Z) - Confidence-aware Personalized Federated Learning via Variational
Expectation Maximization [34.354154518009956]
パーソナライズド・フェデレーション・ラーニング(PFL)のための新しいフレームワークを提案する。
PFLは、クライアント間で共有モデルをトレーニングする分散学習スキームである。
階層的モデリングと変分推論に基づくPFLの新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T20:12:27Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Adaptive Control of Client Selection and Gradient Compression for
Efficient Federated Learning [28.185096784982544]
フェデレートラーニング(FL)は、複数のクライアントがローカルデータを公開せずに協調的にモデルを訓練することを可能にする。
我々はFedCGと呼ばれる不均一なFLフレームワークを提案し、適応的なクライアント選択と勾配圧縮を行う。
実世界のプロトタイプとシミュレーションの両方の実験により、FedCGは他の方法と比較して最大5.3$times$ Speedupを提供できることが示された。
論文 参考訳(メタデータ) (2022-12-19T14:19:07Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。