論文の概要: Federated Noisy Client Learning
- arxiv url: http://arxiv.org/abs/2106.13239v1
- Date: Thu, 24 Jun 2021 11:09:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-28 13:20:34.106801
- Title: Federated Noisy Client Learning
- Title(参考訳): Federated Noisy Client Learning
- Authors: Li Li, Huazhu Fu, Bo Han, Cheng-Zhong Xu, Ling Shao
- Abstract要約: フェデレートラーニング(FL)は、複数のローカルクライアントに依存する共有グローバルモデルを協調的に集約する。
標準FLメソッドは、集約されたモデル全体のパフォーマンスを損なううるノイズの多いクライアントの問題を無視します。
本稿では,Fed-NCL (Federated Noisy Client Learning) を提案する。
- 参考スコア(独自算出の注目度): 105.00756772827066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) collaboratively aggregates a shared global model
depending on multiple local clients, while keeping the training data
decentralized in order to preserve data privacy. However, standard FL methods
ignore the noisy client issue, which may harm the overall performance of the
aggregated model. In this paper, we first analyze the noisy client statement,
and then model noisy clients with different noise distributions (e.g.,
Bernoulli and truncated Gaussian distributions). To learn with noisy clients,
we propose a simple yet effective FL framework, named Federated Noisy Client
Learning (Fed-NCL), which is a plug-and-play algorithm and contains two main
components: a data quality measurement (DQM) to dynamically quantify the data
quality of each participating client, and a noise robust aggregation (NRA) to
adaptively aggregate the local models of each client by jointly considering the
amount of local training data and the data quality of each client. Our Fed-NCL
can be easily applied in any standard FL workflow to handle the noisy client
issue. Experimental results on various datasets demonstrate that our algorithm
boosts the performances of different state-of-the-art systems with noisy
clients.
- Abstract(参考訳): フェデレートラーニング(FL)は、データのプライバシを維持するためにトレーニングデータを分散したまま、複数のローカルクライアントに依存する共有グローバルモデルを協調的に集約する。
しかし、標準FLメソッドは、集約されたモデル全体のパフォーマンスを損なううるノイズの多いクライアント問題を無視する。
本稿では,まず雑音のあるクライアントステートメントを解析し,ノイズ分布の異なるノイズクライアントをモデル化する(ベルヌーイ分布やガウス分布の切断など)。
雑音のあるクライアントで学習するために,Federated Noisy Client Learning (Fed-NCL) という単純なFLフレームワークを提案する。このフレームワークはプラグアンドプレイのアルゴリズムであり,各クライアントのデータ品質を動的に定量化するデータ品質測定(DQM)と,各クライアントのローカルモデルとデータ品質を協調的に考慮して適応的に集約するノイズロバストアグリゲーション(NRA)という2つの主要コンポーネントを備えている。
fed-nclはどんな標準flワークフローでも簡単に適用でき、騒がしいクライアント問題に対処することができます。
種々のデータセットに対する実験結果から,我々のアルゴリズムは,ノイズの多いクライアントを持つ様々な最先端システムの性能を向上させることを示した。
関連論文リスト
- FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - LEFL: Low Entropy Client Sampling in Federated Learning [6.436397118145477]
Federated Learning(FL)は、複数のクライアントが協力して、プライベートデータを使用して単一のグローバルモデルを最適化する、機械学習パラダイムである。
本稿では,モデルが学習した高レベルの特徴に基づいて,クライアントのクラスタリングを1回行うことで,新たなサンプリング手法LEFLを提案する。
提案手法で選択したサンプルクライアントは,グローバルなデータ分布に対して,相対エントロピーが低いことを示す。
論文 参考訳(メタデータ) (2023-12-29T01:44:20Z) - FedDiv: Collaborative Noise Filtering for Federated Learning with Noisy
Labels [99.70895640578816]
雑音ラベル付きフェデレーション学習(F-LNL)は,協調型分散学習を通じて最適なサーバモデルを求めることを目的としている。
我々はF-LNLの課題に取り組むためにFedDivを提案し、特にフェデレートノイズフィルタと呼ばれるグローバルノイズフィルタを提案する。
論文 参考訳(メタデータ) (2023-12-19T15:46:47Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Personalized Federated Learning with Multi-branch Architecture [0.0]
フェデレートラーニング(FL)は、複数のクライアントが相互に生データを公開することなく、協力的にモデルをトレーニングすることを可能にする。
ニューラルネットワークの各レイヤを複数のブランチに分割し,各ブランチにクライアント固有の重みを割り当てることで,パーソナライズを実現するマルチブランチアーキテクチャを用いた新しいPFL手法(pFedMB)を提案する。
CIFAR10およびCIFAR100データセットを用いて,pFedMBが最先端のPFL法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2022-11-15T06:30:57Z) - FedNoiL: A Simple Two-Level Sampling Method for Federated Learning with
Noisy Labels [49.47228898303909]
フェデレートラーニング(FL)は、トレーニングデータが収集され、ローカルデバイスに配置されている間、サーバ側のグローバルモデルをトレーニングすることを目的としている。
ノイズラベルの局所的なトレーニングは、集約を通じてグローバルモデルに破壊的な破壊的な、ノイズラベルへの過度な適合をもたらす可能性がある。
サーバ上でよりロバストなグローバルアグリゲーションを実現するため,クライアントを選択するための単純な2レベルサンプリング手法「FedNoiL」を開発した。
論文 参考訳(メタデータ) (2022-05-20T12:06:39Z) - FedCorr: Multi-Stage Federated Learning for Label Noise Correction [80.9366438220228]
Federated Learning(FL)は、クライアントがグローバルモデルの共同トレーニングを可能にする、プライバシ保護の分散学習パラダイムである。
FLにおける異種ラベルノイズに対処する汎用多段階フレームワークであるtextttFedCorr$を提案する。
CIFAR-10/100でフェデレートされた合成ラベルノイズと実世界のノイズデータセットであるCloting1Mで実施された実験は、textttFedCorr$がラベルノイズに対して堅牢であることを実証した。
論文 参考訳(メタデータ) (2022-04-10T12:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。