論文の概要: FLUX: Efficient Descriptor-Driven Clustered Federated Learning under Arbitrary Distribution Shifts
- arxiv url: http://arxiv.org/abs/2511.22305v1
- Date: Thu, 27 Nov 2025 10:36:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.511844
- Title: FLUX: Efficient Descriptor-Driven Clustered Federated Learning under Arbitrary Distribution Shifts
- Title(参考訳): FLUX: 任意分散シフト下での効率的なディスクリプタ駆動クラスタ型フェデレーション学習
- Authors: Dario Fenoglio, Mohan Li, Pietro Barbiero, Nicholas D. Lane, Marc Langheinrich, Martin Gjoreski,
- Abstract要約: フェデレートラーニング(FL)は、データのプライバシを保持しながら、複数のクライアント間で協調的なモデルトレーニングを可能にする。
FLUXは、新しいクラスタリングベースのFLフレームワークで、トレーニングとテストの両方で、最も一般的な4種類の分散シフトに対処する。
- 参考スコア(独自算出の注目度): 24.415282689834985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables collaborative model training across multiple clients while preserving data privacy. Traditional FL methods often use a global model to fit all clients, assuming that clients' data are independent and identically distributed (IID). However, when this assumption does not hold, the global model accuracy may drop significantly, limiting FL applicability in real-world scenarios. To address this gap, we propose FLUX, a novel clustering-based FL (CFL) framework that addresses the four most common types of distribution shifts during both training and test time. To this end, FLUX leverages privacy-preserving client-side descriptor extraction and unsupervised clustering to ensure robust performance and scalability across varying levels and types of distribution shifts. Unlike existing CFL methods addressing non-IID client distribution shifts, FLUX i) does not require any prior knowledge of the types of distribution shifts or the number of client clusters, and ii) supports test-time adaptation, enabling unseen and unlabeled clients to benefit from the most suitable cluster-specific models. Extensive experiments across four standard benchmarks, two real-world datasets and ten state-of-the-art baselines show that FLUX improves performance and stability under diverse distribution shifts, achieving an average accuracy gain of up to 23 percentage points over the best-performing baselines, while maintaining computational and communication overhead comparable to FedAvg.
- Abstract(参考訳): フェデレートラーニング(FL)は、データのプライバシを保持しながら、複数のクライアント間で協調的なモデルトレーニングを可能にする。
従来のFLメソッドは、クライアントのデータが独立しており、同じ分散(IID)であることを前提として、すべてのクライアントに適合するグローバルモデルを使用することが多い。
しかし、この仮定が成り立たない場合、グローバルモデル精度は大幅に低下し、現実のシナリオではFLの適用性が制限される。
このギャップに対処するため,新しいクラスタリングベースのFL(CFL)フレームワークであるFLUXを提案する。
この目的のためにFLUXは、プライバシを保存するクライアント側の記述子抽出と教師なしクラスタリングを活用して、さまざまなレベルの分散シフトに対して堅牢なパフォーマンスとスケーラビリティを確保する。
非IIDクライアント分散シフトに対応する既存のCFLメソッドとは異なり、FLUX
一 配当シフトの種類又はクライアントクラスタの数についての事前の知識を必要としないこと。
ii) テスト時適応をサポートし、未確認および未ラベルのクライアントが最も適切なクラスタ特化モデルの恩恵を受けられるようにする。
4つの標準ベンチマーク、2つの実世界のデータセット、10つの最先端ベースラインにわたる大規模な実験は、FLUXが様々な分散シフトの下でパフォーマンスと安定性を改善し、最高のパフォーマンスベースラインに対して最大23パーセントの精度向上を実現し、FedAvgに匹敵する計算および通信オーバーヘッドを維持していることを示している。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Federated Learning Clients Clustering with Adaptation to Data Drifts [27.974937897248132]
フェデレートラーニング(FL)は、生データを集中することなく、エッジデバイスをまたいだディープモデルをトレーニングし、ユーザのプライバシを保護します。
低オーバーヘッドで多種多様なデータドリフトを処理するためのフレームワークであるFIELdingを提案する。
実験の結果、FIELDINGは最終モデルの精度を1.9-5.9%向上し、目標の精度は既存の最先端CFL法よりも1.16x-2.23倍向上した。
論文 参考訳(メタデータ) (2024-11-03T14:13:38Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Adaptive Self-Distillation for Minimizing Client Drift in Heterogeneous
Federated Learning [9.975023463908496]
Federated Learning(FL)は、クライアントがローカルトレーニングデータを共有せずに、局所的にトレーニングされたモデルを集約することで、グローバルモデルの共同トレーニングを可能にする機械学習パラダイムである。
本稿では,適応自己蒸留(ASD)に基づく新たな正規化手法を提案する。
我々の正規化方式は,グローバルモデルエントロピーとクライアントのラベル分布に基づいて,クライアントのトレーニングデータに適応的に適応的に適応する。
論文 参考訳(メタデータ) (2023-05-31T07:00:42Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Gradient Masked Averaging for Federated Learning [24.687254139644736]
フェデレートラーニングは、統一グローバルモデルの学習を協調するために、異種データを持つ多数のクライアントを可能にする。
標準FLアルゴリズムは、サーバのグローバルモデルを近似するために、モデルパラメータや勾配の更新を平均化する。
本稿では,クライアント更新の標準平均化の代替として,FLの勾配マスク平均化手法を提案する。
論文 参考訳(メタデータ) (2022-01-28T08:42:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。