論文の概要: Tackling Noisy Clients in Federated Learning with End-to-end Label Correction
- arxiv url: http://arxiv.org/abs/2408.04301v1
- Date: Thu, 8 Aug 2024 08:35:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-09 16:08:12.668544
- Title: Tackling Noisy Clients in Federated Learning with End-to-end Label Correction
- Title(参考訳): 終端ラベル補正によるフェデレーション学習におけるノイズの多いクライアントの対応
- Authors: Xuefeng Jiang, Sheng Sun, Jia Li, Jingjing Xue, Runhan Li, Zhiyuan Wu, Gang Xu, Yuwei Wang, Min Liu,
- Abstract要約: 本稿では,この複雑なラベルノイズ問題に対処する2段階のFedELCを提案する。
第1段階は、ラベルノイズの高いノイズの多いクライアントの検出を誘導することを目的としている。
第2段階は、エンドツーエンドのラベル修正フレームワークを通じて、ノイズの多いクライアントのデータのラベルを修正することを目的としている。
- 参考スコア(独自算出の注目度): 20.64304520865249
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, federated learning (FL) has achieved wide successes for diverse privacy-sensitive applications without sacrificing the sensitive private information of clients. However, the data quality of client datasets can not be guaranteed since corresponding annotations of different clients often contain complex label noise of varying degrees, which inevitably causes the performance degradation. Intuitively, the performance degradation is dominated by clients with higher noise rates since their trained models contain more misinformation from data, thus it is necessary to devise an effective optimization scheme to mitigate the negative impacts of these noisy clients. In this work, we propose a two-stage framework FedELC to tackle this complicated label noise issue. The first stage aims to guide the detection of noisy clients with higher label noise, while the second stage aims to correct the labels of noisy clients' data via an end-to-end label correction framework which is achieved by learning possible ground-truth labels of noisy clients' datasets via back propagation. We implement sixteen related methods and evaluate five datasets with three types of complicated label noise scenarios for a comprehensive comparison. Extensive experimental results demonstrate our proposed framework achieves superior performance than its counterparts for different scenarios. Additionally, we effectively improve the data quality of detected noisy clients' local datasets with our label correction framework. The code is available at https://github.com/Sprinter1999/FedELC.
- Abstract(参考訳): 近年、FL(Federated Learning)は、クライアントの機密情報を犠牲にすることなく、多様なプライバシーに敏感なアプリケーションで広く成功している。
しかし、クライアントデータセットのデータ品質は、異なるクライアントのアノテーションが様々な程度に複雑なラベルノイズを含むことが多いため保証できない。
直感的には、訓練されたモデルがデータからの誤報を多く含んでいるため、性能劣化はより高いノイズ率を持つクライアントに支配されているため、これらのノイズの多いクライアントの負の影響を緩和する効果的な最適化スキームを考案する必要がある。
本研究では,この複雑なラベルノイズ問題に対処する2段階のFedELCを提案する。
第1段階は、ラベルノイズの高いノイズのあるノイズの多いクライアントの検出をガイドすることを目的としており、第2段階は、バック伝搬を通じてノイズの多いクライアントのデータセットの地味ラベルを学習することで達成されるエンドツーエンドのラベル補正フレームワークを通じて、ノイズの多いクライアントのラベルを修正することを目的としている。
我々は16種類の関連手法を実装し,3種類の複雑なラベルノイズシナリオを持つ5つのデータセットを総合的な比較のために評価した。
提案するフレームワークは, 異なるシナリオにおいて, 比較した場合よりも優れた性能を発揮することを示す。
さらに,検出されたノイズの多いクライアントのローカルデータセットのデータ品質をラベル補正フレームワークで効果的に改善する。
コードはhttps://github.com/Sprinter 1999/FedELCで公開されている。
関連論文リスト
- Federated Learning Client Pruning for Noisy Labels [6.30126491637621]
フェデレートラーニング(FL)は、分散エッジデバイス間の協調モデルトレーニングを可能にする。
本稿では,新しい視点からノイズラベルに対処する新しいフレームワークであるClipFLを紹介する。
クリーンなバリデーションデータセットでパフォーマンスに基づいて、ノイズの多いクライアントを特定して除外する。
論文 参考訳(メタデータ) (2024-11-11T21:46:34Z) - FedFixer: Mitigating Heterogeneous Label Noise in Federated Learning [15.382625332503125]
フェデレートラーニング(FL)はその性能のラベル品質に大きく依存する。
異種ラベルノイズにおけるクライアント固有のサンプルによる高い損失は、クライアント固有のサンプルとノイズのあるラベルのサンプルを区別する上での課題となる。
我々はFedFixerを提案し、そこでパーソナライズされたモデルがグローバルモデルと協調してクライアント固有のクリーンなサンプルを効果的に選択する。
論文 参考訳(メタデータ) (2024-03-25T09:24:05Z) - Federated Learning with Extremely Noisy Clients via Negative
Distillation [70.13920804879312]
フェデレーテッド・ラーニング (FL) は, ノイズラベルに悩まされながら, ディープモデルの協調訓練において顕著な成功を収めた。
ノイズの多いクライアントで訓練されたモデルを活用するために, 負蒸留(FedNed)と呼ばれる新しい手法を提案する。
FedNedはまずノイズの多いクライアントを特定し、知識蒸留方式でノイズの多いクライアントを捨てるのではなく採用する。
論文 参考訳(メタデータ) (2023-12-20T01:59:48Z) - FedDiv: Collaborative Noise Filtering for Federated Learning with Noisy
Labels [99.70895640578816]
雑音ラベル付きフェデレーション学習(F-LNL)は,協調型分散学習を通じて最適なサーバモデルを求めることを目的としている。
我々はF-LNLの課題に取り組むためにFedDivを提案し、特にフェデレートノイズフィルタと呼ばれるグローバルノイズフィルタを提案する。
論文 参考訳(メタデータ) (2023-12-19T15:46:47Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - FedCorr: Multi-Stage Federated Learning for Label Noise Correction [80.9366438220228]
Federated Learning(FL)は、クライアントがグローバルモデルの共同トレーニングを可能にする、プライバシ保護の分散学習パラダイムである。
FLにおける異種ラベルノイズに対処する汎用多段階フレームワークであるtextttFedCorr$を提案する。
CIFAR-10/100でフェデレートされた合成ラベルノイズと実世界のノイズデータセットであるCloting1Mで実施された実験は、textttFedCorr$がラベルノイズに対して堅牢であることを実証した。
論文 参考訳(メタデータ) (2022-04-10T12:51:18Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Federated Noisy Client Learning [105.00756772827066]
フェデレートラーニング(FL)は、複数のローカルクライアントに依存する共有グローバルモデルを協調的に集約する。
標準FLメソッドは、集約されたモデル全体のパフォーマンスを損なううるノイズの多いクライアントの問題を無視します。
本稿では,Fed-NCL (Federated Noisy Client Learning) を提案する。
論文 参考訳(メタデータ) (2021-06-24T11:09:17Z) - Audio Tagging by Cross Filtering Noisy Labels [26.14064793686316]
そこで我々はCrossFilterという新しいフレームワークを提案し,音声タグ付けにおけるノイズラベル問題に対処する。
提案手法は最先端の性能を達成し,アンサンブルモデルを超えている。
論文 参考訳(メタデータ) (2020-07-16T07:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。