論文の概要: Data-Free Continual Learning of Server Models in Model-Heterogeneous Federated learning
- arxiv url: http://arxiv.org/abs/2509.25977v1
- Date: Tue, 30 Sep 2025 09:09:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.483544
- Title: Data-Free Continual Learning of Server Models in Model-Heterogeneous Federated learning
- Title(参考訳): モデルヘテロジニアスフェデレーション学習におけるサーバモデルのデータフリー連続学習
- Authors: Xiao Zhang, Zengzhe Chen, Yuan Yuan, Yifei Zou, Fuzhen Zhuang, Wenyu Jiao, Yuke Wang, Dongxiao Yu,
- Abstract要約: フェデレートラーニング(Federated Learning, FL)は、データプライバシを保持しながら、複数のエンティティにわたって分散学習パラダイムである。
新しいデータの継続的な出現とモデルの多様性の増大により、従来のフェデレーション学習は大きな課題に直面します。
我々はFedDCLを紹介した。FedDCLは、モデル・ヘテロジニアス・フェデレーション・セッティングにおいて、サーバモデルのデータフリー連続学習を可能にするように設計された新しいフレームワークである。
- 参考スコア(独自算出の注目度): 41.20103769533302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a distributed learning paradigm across multiple entities while preserving data privacy. However, with the continuous emergence of new data and increasing model diversity, traditional federated learning faces significant challenges, including inherent issues of data heterogeneity, model heterogeneity and catastrophic forgetting, along with new challenge of knowledge misalignment. In this study, we introduce FedDCL, a novel framework designed to enable data-free continual learning of the server model in a model-heterogeneous federated setting. We leverage pre-trained diffusion models to extract lightweight class-specific prototypes, which confer a threefold data-free advantage, enabling: (1) generation of synthetic data for the current task to augment training and counteract non-IID data distributions; (2) exemplar-free generative replay for retaining knowledge from previous tasks; and (3) data-free dynamic knowledge transfer from heterogeneous clients to the server. Experimental results on various datasets demonstrate the effectiveness of FedDCL, showcasing its potential to enhance the generalizability and practical applicability of federated learning in dynamic settings.
- Abstract(参考訳): フェデレートラーニング(Federated Learning, FL)は、データプライバシを保持しながら、複数のエンティティにわたって分散学習パラダイムである。
しかし、新しいデータの継続的な出現とモデルの多様性の増大により、従来のフェデレーション学習は、データ不均一性、モデル不均一性、破滅的な忘れ込みといった固有の問題や、知識のミスアライメントという新たな課題など、重大な課題に直面している。
本研究では,FedDCLを提案する。FedDCLは,モデル・ヘテロジニアス・フェデレーション・セッティングにおいて,サーバモデルのデータフリー連続学習を可能にする新しいフレームワークである。
我々は,事前学習した拡散モデルを利用して,軽量なクラス固有のプロトタイプを抽出し,(1)訓練を増強し,非IIDデータ配信に対処するための現在のタスクのための合成データの生成,(2)以前のタスクからの知識を保持するための模範のない生成再生,(3)異種クライアントからサーバへのデータフリーな動的知識伝達を実現する。
各種データセットに対する実験結果から,FedDCLの有効性が示され,動的環境下でのフェデレート学習の一般化性と実践的適用性を高める可能性が示された。
関連論文リスト
- UNIFORM: Unifying Knowledge from Large-scale and Diverse Pre-trained Models [62.76435672183968]
UNIFORMと呼ばれる新しいフレームワークを導入し、多様なオフザシェルフモデルから1つの学生モデルへ知識を伝達する。
本稿では,ロジットレベルでも機能レベルでも知識のコンセンサスを捉えるための,専用の投票機構を提案する。
UNIFORMは、強い知識伝達ベースラインに比べて、教師なしオブジェクト認識性能を効果的に向上することを示した。
論文 参考訳(メタデータ) (2025-08-27T00:56:11Z) - Asynchronous Personalized Federated Learning through Global Memorization [16.630360485032163]
Federated Learningは、機密データを集中化せずに、分散デバイス間で協調的なモデルトレーニングを可能にすることにより、プライバシ保護ソリューションを提供する。
サーバ側セマンティックジェネレータを用いて、クライアントがパーソナライズされたモデルを開発することを可能にする非同期パーソナライズドフェデレーション学習フレームワークを提案する。
このジェネレータは、グローバルモデル監視の下でデータ自由な知識伝達によって訓練され、見知らぬサンプルと見えないサンプルの両方を生成することにより、クライアントデータの多様性を高める。
総合データ障害訓練のリスクに対処するため, 頑健なパーソナライゼーションを確保するために, 疎結合モデルを導入する。
論文 参考訳(メタデータ) (2025-03-01T09:00:33Z) - Hybrid-Regularized Magnitude Pruning for Robust Federated Learning under Covariate Shift [2.298932494750101]
クライアント側トレーニング分布の不整合がフェデレート学習モデルの性能を著しく低下させることを示す。
本稿では,ニューラルネットワークの疎結合性,冗長性,堅牢性を改善するために,フラニングとクライアントトレーニングの正規化を組み合わせた新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - Generative AI like ChatGPT in Blockchain Federated Learning: use cases, opportunities and future [4.497001527881303]
本研究は、フェデレーション学習における生成AIの潜在的な統合について検討する。
GAN(generative adversarial Network)とVAE(variantal autoencoder)
合成データの生成は、限られたデータ可用性に関連する課題に、フェデレートされた学習を支援する。
論文 参考訳(メタデータ) (2024-07-25T19:43:49Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Phoenix: A Federated Generative Diffusion Model [6.09170287691728]
大規模な集中型データセットで生成モデルをトレーニングすることで、データのプライバシやセキュリティ、アクセシビリティといった面での課題が発生する可能性がある。
本稿では,フェデレートラーニング(FL)技術を用いて,複数のデータソースにまたがる拡散確率モデル(DDPM)の学習手法を提案する。
論文 参考訳(メタデータ) (2023-06-07T01:43:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。