論文の概要: Federated Learning Client Pruning for Noisy Labels
- arxiv url: http://arxiv.org/abs/2411.07391v1
- Date: Mon, 11 Nov 2024 21:46:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:19:23.389388
- Title: Federated Learning Client Pruning for Noisy Labels
- Title(参考訳): 雑音ラベルに対するフェデレートラーニング
- Authors: Mahdi Morafah, Hojin Chang, Chen Chen, Bill Lin,
- Abstract要約: フェデレートラーニング(FL)は、分散エッジデバイス間の協調モデルトレーニングを可能にする。
本稿では,新しい視点からノイズラベルに対処する新しいフレームワークであるClipFLを紹介する。
クリーンなバリデーションデータセットでパフォーマンスに基づいて、ノイズの多いクライアントを特定して除外する。
- 参考スコア(独自算出の注目度): 6.30126491637621
- License:
- Abstract: Federated Learning (FL) enables collaborative model training across decentralized edge devices while preserving data privacy. However, existing FL methods often assume clean annotated datasets, impractical for resource-constrained edge devices. In reality, noisy labels are prevalent, posing significant challenges to FL performance. Prior approaches attempt label correction and robust training techniques but exhibit limited efficacy, particularly under high noise levels. This paper introduces ClipFL (Federated Learning Client Pruning), a novel framework addressing noisy labels from a fresh perspective. ClipFL identifies and excludes noisy clients based on their performance on a clean validation dataset, tracked using a Noise Candidacy Score (NCS). The framework comprises three phases: pre-client pruning to identify potential noisy clients and calculate their NCS, client pruning to exclude a percentage of clients with the highest NCS, and post-client pruning for fine-tuning the global model with standard FL on clean clients. Empirical evaluation demonstrates ClipFL's efficacy across diverse datasets and noise levels, achieving accurate noisy client identification, superior performance, faster convergence, and reduced communication costs compared to state-of-the-art FL methods. Our code is available at https://github.com/MMorafah/ClipFL.
- Abstract(参考訳): フェデレートラーニング(FL)は、データプライバシを保持しながら、分散エッジデバイス間で協調的なモデルトレーニングを可能にする。
しかし、既存のFL手法では、リソース制約のあるエッジデバイスでは実用的ではないクリーンな注釈付きデータセットを仮定することが多い。
実際には、ノイズの多いラベルが一般的であり、FLパフォーマンスに重大な課題を提起している。
従来の手法ではラベル補正や堅牢な訓練手法が試みられていたが、特に高騒音下では有効性は限られていた。
ClipFL(Federated Learning Client Pruning)は,雑音に対処する新しいフレームワークである。
ClipFLは、ノイズ候補スコア(NCS)を使用して追跡された、クリーンな検証データセット上でのパフォーマンスに基づいて、ノイズの多いクライアントを特定して除外する。
このフレームワークは、潜在的なノイズのあるクライアントを特定してNASを計算するための事前クライアントのプルーニング、最も高いNASを持つクライアントの割合を除外するクライアントのプルーニング、クリーンクライアントに標準FLでグローバルモデルを微調整するためのポストクライアントのプルーニングの3つのフェーズで構成されている。
経験的評価は、ClipFLが様々なデータセットやノイズレベルにまたがって有効であることを示し、正確でノイズの多いクライアント識別、優れたパフォーマンス、より高速な収束、そして最先端のFL法と比較して通信コストの削減を実現している。
私たちのコードはhttps://github.com/MMorafah/ClipFL.comで公開されています。
関連論文リスト
- Tackling Noisy Clients in Federated Learning with End-to-end Label Correction [20.64304520865249]
本稿では,この複雑なラベルノイズ問題に対処する2段階のFedELCを提案する。
第1段階は、ラベルノイズの高いノイズの多いクライアントの検出を誘導することを目的としている。
第2段階は、エンドツーエンドのラベル修正フレームワークを通じて、ノイズの多いクライアントのデータのラベルを修正することを目的としている。
論文 参考訳(メタデータ) (2024-08-08T08:35:32Z) - Federated Learning with Extremely Noisy Clients via Negative
Distillation [70.13920804879312]
フェデレーテッド・ラーニング (FL) は, ノイズラベルに悩まされながら, ディープモデルの協調訓練において顕著な成功を収めた。
ノイズの多いクライアントで訓練されたモデルを活用するために, 負蒸留(FedNed)と呼ばれる新しい手法を提案する。
FedNedはまずノイズの多いクライアントを特定し、知識蒸留方式でノイズの多いクライアントを捨てるのではなく採用する。
論文 参考訳(メタデータ) (2023-12-20T01:59:48Z) - FedDiv: Collaborative Noise Filtering for Federated Learning with Noisy
Labels [99.70895640578816]
雑音ラベル付きフェデレーション学習(F-LNL)は,協調型分散学習を通じて最適なサーバモデルを求めることを目的としている。
我々はF-LNLの課題に取り組むためにFedDivを提案し、特にフェデレートノイズフィルタと呼ばれるグローバルノイズフィルタを提案する。
論文 参考訳(メタデータ) (2023-12-19T15:46:47Z) - Labeling Chaos to Learning Harmony: Federated Learning with Noisy Labels [3.4620497416430456]
Federated Learning(FL)は分散機械学習のパラダイムで、分散化されたプライベートデータセットからモデルを学ぶことができる。
FL訓練段階間でラベルノイズに対処するフレームワークであるFedLNを提案する。
各種の視覚・音声データセットに対する評価は,従来のラベルノイズレベル60%の手法に比べて平均22%改善したことを示す。
論文 参考訳(メタデータ) (2022-08-19T14:47:40Z) - FedNoiL: A Simple Two-Level Sampling Method for Federated Learning with
Noisy Labels [49.47228898303909]
フェデレートラーニング(FL)は、トレーニングデータが収集され、ローカルデバイスに配置されている間、サーバ側のグローバルモデルをトレーニングすることを目的としている。
ノイズラベルの局所的なトレーニングは、集約を通じてグローバルモデルに破壊的な破壊的な、ノイズラベルへの過度な適合をもたらす可能性がある。
サーバ上でよりロバストなグローバルアグリゲーションを実現するため,クライアントを選択するための単純な2レベルサンプリング手法「FedNoiL」を開発した。
論文 参考訳(メタデータ) (2022-05-20T12:06:39Z) - FedCorr: Multi-Stage Federated Learning for Label Noise Correction [80.9366438220228]
Federated Learning(FL)は、クライアントがグローバルモデルの共同トレーニングを可能にする、プライバシ保護の分散学習パラダイムである。
FLにおける異種ラベルノイズに対処する汎用多段階フレームワークであるtextttFedCorr$を提案する。
CIFAR-10/100でフェデレートされた合成ラベルノイズと実世界のノイズデータセットであるCloting1Mで実施された実験は、textttFedCorr$がラベルノイズに対して堅牢であることを実証した。
論文 参考訳(メタデータ) (2022-04-10T12:51:18Z) - Federated Noisy Client Learning [105.00756772827066]
フェデレートラーニング(FL)は、複数のローカルクライアントに依存する共有グローバルモデルを協調的に集約する。
標準FLメソッドは、集約されたモデル全体のパフォーマンスを損なううるノイズの多いクライアントの問題を無視します。
本稿では,Fed-NCL (Federated Noisy Client Learning) を提案する。
論文 参考訳(メタデータ) (2021-06-24T11:09:17Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。