論文の概要: FedCME: Client Matching and Classifier Exchanging to Handle Data
Heterogeneity in Federated Learning
- arxiv url: http://arxiv.org/abs/2307.08574v1
- Date: Mon, 17 Jul 2023 15:40:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 12:38:09.127573
- Title: FedCME: Client Matching and Classifier Exchanging to Handle Data
Heterogeneity in Federated Learning
- Title(参考訳): FedCME:フェデレートラーニングにおけるデータ不均一性を扱うクライアントマッチングと分類器
- Authors: Jun Nie, Danyang Xiao, Lei Yang and Weigang Wu
- Abstract要約: クライアント間のデータの均一性は、フェデレートラーニング(FL)における重要な課題の1つです。
クライアントマッチングと分類器交換によりFedCMEという新しいFLフレームワークを提案する。
実験結果から,FedCMEはFedAvg,FedProx,MOON,FedRSよりも高い性能を示した。
- 参考スコア(独自算出の注目度): 5.21877373352943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data heterogeneity across clients is one of the key challenges in Federated
Learning (FL), which may slow down the global model convergence and even weaken
global model performance. Most existing approaches tackle the heterogeneity by
constraining local model updates through reference to global information
provided by the server. This can alleviate the performance degradation on the
aggregated global model. Different from existing methods, we focus the
information exchange between clients, which could also enhance the
effectiveness of local training and lead to generate a high-performance global
model. Concretely, we propose a novel FL framework named FedCME by client
matching and classifier exchanging. In FedCME, clients with large differences
in data distribution will be matched in pairs, and then the corresponding pair
of clients will exchange their classifiers at the stage of local training in an
intermediate moment. Since the local data determines the local model training
direction, our method can correct update direction of classifiers and
effectively alleviate local update divergence. Besides, we propose feature
alignment to enhance the training of the feature extractor. Experimental
results demonstrate that FedCME performs better than FedAvg, FedProx, MOON and
FedRS on popular federated learning benchmarks including FMNIST and CIFAR10, in
the case where data are heterogeneous.
- Abstract(参考訳): クライアント間のデータの均一性は、フェデレートラーニング(FL)における重要な課題の1つであり、グローバルモデル収束を遅くし、グローバルモデルのパフォーマンスを弱める可能性がある。
既存のアプローチの多くは、サーバが提供するグローバル情報を参照してローカルモデルのアップデートを制限することで、異質性に対処している。
これにより、集約されたグローバルモデルの性能劣化を軽減することができる。
既存の手法とは違って,クライアント間の情報交換に着目し,ローカルトレーニングの有効性を高め,高性能なグローバルモデルを生成する。
具体的には、クライアントマッチングと分類器交換によるFedCMEという新しいFLフレームワークを提案する。
FedCMEでは、データ分散に大きな違いがあるクライアントはペアで一致し、対応するクライアントのペアは、中間のタイミングでローカルトレーニングの段階で分類器を交換します。
ローカルデータがローカルモデルのトレーニング方向を決定するので,分類器の更新方向を補正し,ローカル更新の発散を効果的に緩和することができる。
さらに,特徴抽出器のトレーニングを強化するための特徴アライメントを提案する。
実験の結果,fedexmeはfmnistやcifar10などの一般的なfederated learningベンチマークにおいて,データに異質な場合においてfedavg,fedprox,moon,federよりも優れた性能を示す。
関連論文リスト
- An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FedSoup: Improving Generalization and Personalization in Federated
Learning via Selective Model Interpolation [32.36334319329364]
クロスサイロフェデレーション学習(FL)は、データセンタに分散したデータセット上での機械学習モデルの開発を可能にする。
近年の研究では、現在のFLアルゴリズムは、分布シフトに直面した場合、局所的な性能とグローバルな性能のトレードオフに直面している。
地域とグローバルのパフォーマンスのトレードオフを最適化する新しいフェデレーションモデルスープ手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T00:07:29Z) - The Best of Both Worlds: Accurate Global and Personalized Models through
Federated Learning with Data-Free Hyper-Knowledge Distillation [17.570719572024608]
FedHKD (Federated Hyper-Knowledge Distillation) は、クライアントがローカルモデルを訓練するために知識蒸留に依存する新しいFLアルゴリズムである。
他のKDベースのpFLメソッドとは異なり、FedHKDはパブリックデータセットに依存したり、サーバに生成モデルをデプロイしたりしない。
さまざまなシナリオにおける視覚的データセットに関する広範な実験を行い、FedHKDがパーソナライズおよびグローバルモデルパフォーマンスの両方において、大幅な改善を提供することを示した。
論文 参考訳(メタデータ) (2023-01-21T16:20:57Z) - FedDC: Federated Learning with Non-IID Data via Local Drift Decoupling
and Correction [48.85303253333453]
フェデレートラーニング(FL)は、複数のクライアントがプライベートデータを共有せずに、高性能なグローバルモデルを集合的にトレーニングすることを可能にする。
局所的ドリフトデカップリングと補正(FedDC)を用いた新しいフェデレーション学習アルゴリズムを提案する。
私たちのFedDCでは、ローカルモデルパラメータとグローバルモデルパラメータのギャップを追跡するために、各クライアントが補助的なローカルドリフト変数を使用するような、ローカルトレーニングフェーズにおける軽量な修正のみを導入しています。
実験結果と解析結果から,FedDCは様々な画像分類タスクにおいて,収差の迅速化と性能の向上を図っている。
論文 参考訳(メタデータ) (2022-03-22T14:06:26Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。