論文の概要: Federated Learning with Profile Mapping under Distribution Shifts and Drifts
- arxiv url: http://arxiv.org/abs/2602.07671v1
- Date: Sat, 07 Feb 2026 19:31:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.752721
- Title: Federated Learning with Profile Mapping under Distribution Shifts and Drifts
- Title(参考訳): 分布シフトとドリフトを考慮したプロファイルマッピングによるフェデレーション学習
- Authors: Mohan Li, Dario Fenoglio, Martin Gjoreski, Marc Langheinrich,
- Abstract要約: フェデレートラーニング(FL)は、生データを共有せずに、クライアント間で分散モデルトレーニングを可能にする。
既存の方法は、クライアント間の分散シフトと時間とともに分散のドリフトに対処できないことが多い。
クライアントやクラスタのアイデンティティに頼ることなく、分散シフトとドリフトの両方を明示的に処理する新しいFLフレームワークであるFeromaを紹介します。
- 参考スコア(独自算出の注目度): 13.33580160559305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables decentralized model training across clients without sharing raw data, but its performance degrades under real-world data heterogeneity. Existing methods often fail to address distribution shift across clients and distribution drift over time, or they rely on unrealistic assumptions such as known number of client clusters and data heterogeneity types, which limits their generalizability. We introduce Feroma, a novel FL framework that explicitly handles both distribution shift and drift without relying on client or cluster identity. Feroma builds on client distribution profiles-compact, privacy-preserving representations of local data-that guide model aggregation and test-time model assignment through adaptive similarity-based weighting. This design allows Feroma to dynamically select aggregation strategies during training, ranging from clustered to personalized, and deploy suitable models to unseen, and unlabeled test clients without retraining, online adaptation, or prior knowledge on clients' data. Extensive experiments show that compared to 10 state-of-the-art methods, Feroma improves performance and stability under dynamic data heterogeneity conditions-an average accuracy gain of up to 12 percentage points over the best baselines across 6 benchmarks-while maintaining computational and communication overhead comparable to FedAvg. These results highlight that distribution-profile-based aggregation offers a practical path toward robust FL under both data distribution shifts and drifts.
- Abstract(参考訳): Federated Learning(FL)は、生データを共有せずにクライアント間で分散モデルトレーニングを可能にするが、そのパフォーマンスは実世界のデータ不均一性の下で低下する。
既存のメソッドは、クライアント間の分散シフトや、時間の経過とともに分散のドリフトに対処できない場合が多く、あるいはクライアントクラスタの既知の数やデータの異種性型といった非現実的な仮定に依存しているため、一般化性に制限がある。
クライアントやクラスタのアイデンティティに頼ることなく、分散シフトとドリフトの両方を明示的に処理する新しいFLフレームワークであるFeromaを紹介します。
Feromaは、クライアントの配布プロファイルと互換性、プライバシ保護によるローカルデータ-モデル集約のガイドと、適応的な類似性に基づく重み付けによるテスト時間モデルの割り当ての上に構築されている。
この設計により、Feromaはクラスタ化からパーソナライズされたモデルまで、トレーニング中のアグリゲーション戦略を動的に選択できる。
大規模な実験によると、Feromaは10の最先端の手法と比較して、動的データの不均一性条件下での性能と安定性を改善している。
これらの結果から,データ分散シフトとドリフトの両面において,分布特徴に基づくアグリゲーションがロバストFLへの実践的経路を提供することがわかった。
関連論文リスト
- FLUX: Efficient Descriptor-Driven Clustered Federated Learning under Arbitrary Distribution Shifts [24.415282689834985]
フェデレートラーニング(FL)は、データのプライバシを保持しながら、複数のクライアント間で協調的なモデルトレーニングを可能にする。
FLUXは、新しいクラスタリングベースのFLフレームワークで、トレーニングとテストの両方で、最も一般的な4種類の分散シフトに対処する。
論文 参考訳(メタデータ) (2025-11-27T10:36:08Z) - Federated Learning Clients Clustering with Adaptation to Data Drifts [27.974937897248132]
フェデレートラーニング(FL)は、生データを集中することなく、エッジデバイスをまたいだディープモデルをトレーニングし、ユーザのプライバシを保護します。
低オーバーヘッドで多種多様なデータドリフトを処理するためのフレームワークであるFIELdingを提案する。
実験の結果、FIELDINGは最終モデルの精度を1.9-5.9%向上し、目標の精度は既存の最先端CFL法よりも1.16x-2.23倍向上した。
論文 参考訳(メタデータ) (2024-11-03T14:13:38Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [55.0981921695672]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Leveraging Foundation Models to Improve Lightweight Clients in Federated
Learning [16.684749528240587]
Federated Learning(FL)は、世界中に散在するクライアントが機密データを漏らさずにグローバルモデルを共同で学習することを可能にする、分散トレーニングパラダイムである。
FLは、クライアント間での不均一なデータ分散という形で大きな課題に直面しており、パフォーマンスとロバスト性は低下している。
本稿では,軽量クライアントモデルの連合訓練を支援し,推論コストを低く抑えつつ,不均一なデータ設定下での性能を向上させる基礎モデル蒸留について紹介する。
論文 参考訳(メタデータ) (2023-11-14T19:10:56Z) - Adaptive Self-Distillation for Minimizing Client Drift in Heterogeneous
Federated Learning [9.975023463908496]
Federated Learning(FL)は、クライアントがローカルトレーニングデータを共有せずに、局所的にトレーニングされたモデルを集約することで、グローバルモデルの共同トレーニングを可能にする機械学習パラダイムである。
本稿では,適応自己蒸留(ASD)に基づく新たな正規化手法を提案する。
我々の正規化方式は,グローバルモデルエントロピーとクライアントのラベル分布に基づいて,クライアントのトレーニングデータに適応的に適応的に適応する。
論文 参考訳(メタデータ) (2023-05-31T07:00:42Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。