論文の概要: Federated Noisy Client Learning
- arxiv url: http://arxiv.org/abs/2106.13239v1
- Date: Thu, 24 Jun 2021 11:09:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-28 13:20:34.106801
- Title: Federated Noisy Client Learning
- Title(参考訳): Federated Noisy Client Learning
- Authors: Li Li, Huazhu Fu, Bo Han, Cheng-Zhong Xu, Ling Shao
- Abstract要約: フェデレートラーニング(FL)は、複数のローカルクライアントに依存する共有グローバルモデルを協調的に集約する。
標準FLメソッドは、集約されたモデル全体のパフォーマンスを損なううるノイズの多いクライアントの問題を無視します。
本稿では,Fed-NCL (Federated Noisy Client Learning) を提案する。
- 参考スコア(独自算出の注目度): 105.00756772827066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) collaboratively aggregates a shared global model
depending on multiple local clients, while keeping the training data
decentralized in order to preserve data privacy. However, standard FL methods
ignore the noisy client issue, which may harm the overall performance of the
aggregated model. In this paper, we first analyze the noisy client statement,
and then model noisy clients with different noise distributions (e.g.,
Bernoulli and truncated Gaussian distributions). To learn with noisy clients,
we propose a simple yet effective FL framework, named Federated Noisy Client
Learning (Fed-NCL), which is a plug-and-play algorithm and contains two main
components: a data quality measurement (DQM) to dynamically quantify the data
quality of each participating client, and a noise robust aggregation (NRA) to
adaptively aggregate the local models of each client by jointly considering the
amount of local training data and the data quality of each client. Our Fed-NCL
can be easily applied in any standard FL workflow to handle the noisy client
issue. Experimental results on various datasets demonstrate that our algorithm
boosts the performances of different state-of-the-art systems with noisy
clients.
- Abstract(参考訳): フェデレートラーニング(FL)は、データのプライバシを維持するためにトレーニングデータを分散したまま、複数のローカルクライアントに依存する共有グローバルモデルを協調的に集約する。
しかし、標準FLメソッドは、集約されたモデル全体のパフォーマンスを損なううるノイズの多いクライアント問題を無視する。
本稿では,まず雑音のあるクライアントステートメントを解析し,ノイズ分布の異なるノイズクライアントをモデル化する(ベルヌーイ分布やガウス分布の切断など)。
雑音のあるクライアントで学習するために,Federated Noisy Client Learning (Fed-NCL) という単純なFLフレームワークを提案する。このフレームワークはプラグアンドプレイのアルゴリズムであり,各クライアントのデータ品質を動的に定量化するデータ品質測定(DQM)と,各クライアントのローカルモデルとデータ品質を協調的に考慮して適応的に集約するノイズロバストアグリゲーション(NRA)という2つの主要コンポーネントを備えている。
fed-nclはどんな標準flワークフローでも簡単に適用でき、騒がしいクライアント問題に対処することができます。
種々のデータセットに対する実験結果から,我々のアルゴリズムは,ノイズの多いクライアントを持つ様々な最先端システムの性能を向上させることを示した。
関連論文リスト
- Fine-Tuning Personalization in Federated Learning to Mitigate Adversarial Clients [8.773068878015856]
フェデレートラーニング(Federated Learning, FL)とは、複数のマシン(例えばクライアント)がデータをローカルに保持しながら一元的に学習できるようにする、魅力的なパラダイムである。
我々は、一部のクライアントが敵対できるFL設定を検討し、完全なコラボレーションが失敗する条件を導出する。
論文 参考訳(メタデータ) (2024-09-30T14:31:19Z) - Collaboratively Learning Federated Models from Noisy Decentralized Data [21.3209961590772]
フェデレーテッド・ラーニング(FL)は、エッジデバイスからのローカルデータを使用して機械学習モデルを協調訓練するための重要な方法として登場した。
本稿では,ラベルノイズと比較して探索されていない領域である入力空間におけるノイズデータの問題に焦点をあてる。
本稿では,FedNS (Federated Noise-Sifting) という雑音を考慮したFLアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2024-09-03T18:00:51Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - LEFL: Low Entropy Client Sampling in Federated Learning [6.436397118145477]
Federated Learning(FL)は、複数のクライアントが協力して、プライベートデータを使用して単一のグローバルモデルを最適化する、機械学習パラダイムである。
本稿では,モデルが学習した高レベルの特徴に基づいて,クライアントのクラスタリングを1回行うことで,新たなサンプリング手法LEFLを提案する。
提案手法で選択したサンプルクライアントは,グローバルなデータ分布に対して,相対エントロピーが低いことを示す。
論文 参考訳(メタデータ) (2023-12-29T01:44:20Z) - FedDiv: Collaborative Noise Filtering for Federated Learning with Noisy
Labels [99.70895640578816]
雑音ラベル付きフェデレーション学習(F-LNL)は,協調型分散学習を通じて最適なサーバモデルを求めることを目的としている。
我々はF-LNLの課題に取り組むためにFedDivを提案し、特にフェデレートノイズフィルタと呼ばれるグローバルノイズフィルタを提案する。
論文 参考訳(メタデータ) (2023-12-19T15:46:47Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - FedCorr: Multi-Stage Federated Learning for Label Noise Correction [80.9366438220228]
Federated Learning(FL)は、クライアントがグローバルモデルの共同トレーニングを可能にする、プライバシ保護の分散学習パラダイムである。
FLにおける異種ラベルノイズに対処する汎用多段階フレームワークであるtextttFedCorr$を提案する。
CIFAR-10/100でフェデレートされた合成ラベルノイズと実世界のノイズデータセットであるCloting1Mで実施された実験は、textttFedCorr$がラベルノイズに対して堅牢であることを実証した。
論文 参考訳(メタデータ) (2022-04-10T12:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。