論文の概要: FedDiv: Collaborative Noise Filtering for Federated Learning with Noisy
Labels
- arxiv url: http://arxiv.org/abs/2312.12263v3
- Date: Fri, 16 Feb 2024 09:32:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 19:46:57.454347
- Title: FedDiv: Collaborative Noise Filtering for Federated Learning with Noisy
Labels
- Title(参考訳): feddiv: 雑音ラベルを用いた連合学習のための協調雑音フィルタリング
- Authors: Jichang Li, Guanbin Li, Hui Cheng, Zicheng Liao, Yizhou Yu
- Abstract要約: 雑音ラベル付きフェデレーション学習(F-LNL)は,協調型分散学習を通じて最適なサーバモデルを求めることを目的としている。
我々はF-LNLの課題に取り組むためにFedDivを提案し、特にフェデレートノイズフィルタと呼ばれるグローバルノイズフィルタを提案する。
- 参考スコア(独自算出の注目度): 99.70895640578816
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning with noisy labels (F-LNL) aims at seeking an optimal
server model via collaborative distributed learning by aggregating multiple
client models trained with local noisy or clean samples. On the basis of a
federated learning framework, recent advances primarily adopt label noise
filtering to separate clean samples from noisy ones on each client, thereby
mitigating the negative impact of label noise. However, these prior methods do
not learn noise filters by exploiting knowledge across all clients, leading to
sub-optimal and inferior noise filtering performance and thus damaging training
stability. In this paper, we present FedDiv to tackle the challenges of F-LNL.
Specifically, we propose a global noise filter called Federated Noise Filter
for effectively identifying samples with noisy labels on every client, thereby
raising stability during local training sessions. Without sacrificing data
privacy, this is achieved by modeling the global distribution of label noise
across all clients. Then, in an effort to make the global model achieve higher
performance, we introduce a Predictive Consistency based Sampler to identify
more credible local data for local model training, thus preventing noise
memorization and further boosting the training stability. Extensive experiments
on CIFAR-10, CIFAR-100, and Clothing1M demonstrate that \texttt{FedDiv}
achieves superior performance over state-of-the-art F-LNL methods under
different label noise settings for both IID and non-IID data partitions. Source
code is publicly available at https://github.com/lijichang/FLNL-FedDiv.
- Abstract(参考訳): F-LNL(Federated Learning with Noisy labels)は、ローカルノイズやクリーンサンプルでトレーニングされた複数のクライアントモデルを集約することで、協調的な分散学習を通じて最適なサーバモデルを求めることを目的としている。
フェデレーション学習の枠組みに基づき,近年では,各クライアントのクリーンサンプルとノイズサンプルを分離するラベルノイズフィルタリングを主に採用し,ラベルノイズの悪影響を軽減している。
しかし、これらの従来の手法は、全てのクライアントの知識を生かしてノイズフィルタを学習しないため、準最適かつ劣悪なノイズフィルタリング性能が得られ、訓練安定性を損なう。
本稿ではF-LNLの課題に取り組むためにFedDivを提案する。
具体的には,各クライアントのノイズラベル付きサンプルを効果的に識別し,局所的なトレーニングセッションの安定性を高めるための,フェデレートノイズフィルタというグローバルノイズフィルタを提案する。
データプライバシを犠牲にすることなく、すべてのクライアントに対するラベルノイズのグローバル分布をモデル化することで実現される。
そして,グローバルモデルを高い性能を達成するために,予測整合性に基づくサンプリングを導入し,局所モデルトレーニングのためのより信頼性の高いローカルデータを特定し,ノイズの記憶を防止し,トレーニング安定性を高める。
CIFAR-10, CIFAR-100, Clothing1Mの大規模な実験により, IIDおよび非IIDデータパーティションの異なるラベル設定下での最先端F-LNL法よりも優れた性能が得られた。
ソースコードはhttps://github.com/lijichang/FLNL-FedDiv.comで公開されている。
関連論文リスト
- Collaboratively Learning Federated Models from Noisy Decentralized Data [21.3209961590772]
フェデレーテッド・ラーニング(FL)は、エッジデバイスからのローカルデータを使用して機械学習モデルを協調訓練するための重要な方法として登場した。
本稿では,ラベルノイズと比較して探索されていない領域である入力空間におけるノイズデータの問題に焦点をあてる。
本稿では,FedNS (Federated Noise-Sifting) という雑音を考慮したFLアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2024-09-03T18:00:51Z) - Federated Learning with Extremely Noisy Clients via Negative
Distillation [70.13920804879312]
フェデレーテッド・ラーニング (FL) は, ノイズラベルに悩まされながら, ディープモデルの協調訓練において顕著な成功を収めた。
ノイズの多いクライアントで訓練されたモデルを活用するために, 負蒸留(FedNed)と呼ばれる新しい手法を提案する。
FedNedはまずノイズの多いクライアントを特定し、知識蒸留方式でノイズの多いクライアントを捨てるのではなく採用する。
論文 参考訳(メタデータ) (2023-12-20T01:59:48Z) - Learning Cautiously in Federated Learning with Noisy and Heterogeneous
Clients [4.782145666637457]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保証と協調トレーニングを行う分散フレームワークである。
実世界のシナリオでは、クライアントはアノテーションの品質(ラベルノイズ)が低い非IIDデータ(ローカルクラス不均衡)を持つかもしれない。
我々は、追加のクリーンプロキシデータセットを使わずにFedCNIを提案する。
これには、耐雑音性のある局所解法と、ロバストなグローバルアグリゲータが含まれる。
論文 参考訳(メタデータ) (2023-04-06T06:47:14Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - FedNoiL: A Simple Two-Level Sampling Method for Federated Learning with
Noisy Labels [49.47228898303909]
フェデレートラーニング(FL)は、トレーニングデータが収集され、ローカルデバイスに配置されている間、サーバ側のグローバルモデルをトレーニングすることを目的としている。
ノイズラベルの局所的なトレーニングは、集約を通じてグローバルモデルに破壊的な破壊的な、ノイズラベルへの過度な適合をもたらす可能性がある。
サーバ上でよりロバストなグローバルアグリゲーションを実現するため,クライアントを選択するための単純な2レベルサンプリング手法「FedNoiL」を開発した。
論文 参考訳(メタデータ) (2022-05-20T12:06:39Z) - FedCorr: Multi-Stage Federated Learning for Label Noise Correction [80.9366438220228]
Federated Learning(FL)は、クライアントがグローバルモデルの共同トレーニングを可能にする、プライバシ保護の分散学習パラダイムである。
FLにおける異種ラベルノイズに対処する汎用多段階フレームワークであるtextttFedCorr$を提案する。
CIFAR-10/100でフェデレートされた合成ラベルノイズと実世界のノイズデータセットであるCloting1Mで実施された実験は、textttFedCorr$がラベルノイズに対して堅牢であることを実証した。
論文 参考訳(メタデータ) (2022-04-10T12:51:18Z) - Federated Noisy Client Learning [105.00756772827066]
フェデレートラーニング(FL)は、複数のローカルクライアントに依存する共有グローバルモデルを協調的に集約する。
標準FLメソッドは、集約されたモデル全体のパフォーマンスを損なううるノイズの多いクライアントの問題を無視します。
本稿では,Fed-NCL (Federated Noisy Client Learning) を提案する。
論文 参考訳(メタデータ) (2021-06-24T11:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。