論文の概要: FedNoisy: Federated Noisy Label Learning Benchmark
- arxiv url: http://arxiv.org/abs/2306.11650v3
- Date: Thu, 30 May 2024 06:16:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-01 00:02:40.327713
- Title: FedNoisy: Federated Noisy Label Learning Benchmark
- Title(参考訳): FedNoisy:Federated Noisy Label Learning Benchmark
- Authors: Siqi Liang, Jintao Huang, Junyuan Hong, Dun Zeng, Jiayu Zhou, Zenglin Xu,
- Abstract要約: フェデレーション学習は、クライアントからの機密データを集約することなく、分散学習で人気を集めている。
データ分離の分散と分離の性質は、データ品質によって複雑になり、ノイズの多いラベルに対してより脆弱になる可能性がある。
私たちは、研究者が潜在的にフェデレートされたノイズ設定を十分に調査するのに役立つ、最初の標準ベンチマークを提供しています。
- 参考スコア(独自算出の注目度): 53.73816587601204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning has gained popularity for distributed learning without aggregating sensitive data from clients. But meanwhile, the distributed and isolated nature of data isolation may be complicated by data quality, making it more vulnerable to noisy labels. Many efforts exist to defend against the negative impacts of noisy labels in centralized or federated settings. However, there is a lack of a benchmark that comprehensively considers the impact of noisy labels in a wide variety of typical FL settings. In this work, we serve the first standardized benchmark that can help researchers fully explore potential federated noisy settings. Also, we conduct comprehensive experiments to explore the characteristics of these data settings and unravel challenging scenarios on the federated noisy label learning, which may guide method development in the future. We highlight the 20 basic settings for more than 5 datasets proposed in our benchmark and standardized simulation pipeline for federated noisy label learning. We hope this benchmark can facilitate idea verification in federated learning with noisy labels. \texttt{FedNoisy} is available at \codeword{https://github.com/SMILELab-FL/FedNoisy}.
- Abstract(参考訳): フェデレーション学習は、クライアントからの機密データを集約することなく、分散学習で人気を集めている。
しかし、データ分離の分散された分離された性質は、データ品質によって複雑になり、ノイズの多いラベルに対してより脆弱になる可能性がある。
集中的あるいは連合的な設定において、ノイズラベルの負の影響を防ごうとする努力は数多く存在する。
しかし、様々な典型的なFL設定におけるノイズラベルの影響を包括的に考慮するベンチマークが欠如している。
この研究は、研究者が有意なノイズ設定を十分に探求するのに役立つ、最初の標準化されたベンチマークを提供する。
また,これらのデータ設定の特徴や,将来メソッド開発を導くであろうフェデレーション付き雑音ラベル学習における難解なシナリオを明らかにするために,包括的実験を実施している。
ベンチマークでは,5つ以上のデータセットに対する20の基本的な設定と,フェデレーション付き雑音ラベル学習のための標準化されたシミュレーションパイプラインを強調した。
このベンチマークが、ノイズラベルによるフェデレーション学習におけるアイデア検証を促進することを願っている。
\texttt{FedNoisy} は \codeword{https://github.com/SMILELab-FL/FedNoisy} で入手できる。
関連論文リスト
- Group Benefits Instances Selection for Data Purification [21.977432359384835]
ラベルノイズと戦う既存の方法は通常、合成データセット上で設計およびテストされる。
本稿では,合成および実世界の両方のデータセットに対するノイズラベル問題を緩和するGRIPという手法を提案する。
論文 参考訳(メタデータ) (2024-03-23T03:06:19Z) - Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - FedNoRo: Towards Noise-Robust Federated Learning by Addressing Class
Imbalance and Label Noise Heterogeneity [29.68112244504151]
FNLL(Federated Noisy label learning)は、プライバシ保護による分散学習のための有望なツールとして登場している。
まず,大域的データがクラス不均衡であり,ラベルノイズが不均一である新しい,より現実的なラベルノイズ問題を定式化する。
本稿では,FedNoRoという2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-09T07:45:55Z) - Towards Federated Learning against Noisy Labels via Local
Self-Regularization [11.077889765623588]
フェデレーテッド・ラーニング(FL)は、ラベル付きデータをプライバシを保存する方法で、大規模に分散化されたデバイスから共同知識を学ぶことを目的としている。
高品質なラベル付きデータは高価な人間の知性と努力を必要とするため、誤ったラベル(ノイズラベルと呼ばれる)を持つデータは現実にはどこにでもある。
本研究では,雑音ラベルを暗黙的に記憶することによる局所的な学習過程を効果的に調整する局所自己正規化手法を提案する。
論文 参考訳(メタデータ) (2022-08-25T04:03:12Z) - FedNoiL: A Simple Two-Level Sampling Method for Federated Learning with
Noisy Labels [49.47228898303909]
フェデレートラーニング(FL)は、トレーニングデータが収集され、ローカルデバイスに配置されている間、サーバ側のグローバルモデルをトレーニングすることを目的としている。
ノイズラベルの局所的なトレーニングは、集約を通じてグローバルモデルに破壊的な破壊的な、ノイズラベルへの過度な適合をもたらす可能性がある。
サーバ上でよりロバストなグローバルアグリゲーションを実現するため,クライアントを選択するための単純な2レベルサンプリング手法「FedNoiL」を開発した。
論文 参考訳(メタデータ) (2022-05-20T12:06:39Z) - Learning with Noisy Labels Revisited: A Study Using Real-World Human
Annotations [54.400167806154535]
ノイズラベルを用いた学習に関する既存の研究は、主に合成ラベルノイズに焦点を当てている。
本研究は2つの新しいベンチマークデータセット(CIFAR-10N, CIFAR-100N)を示す。
実世界のノイズラベルは古典的に採用されたクラス依存のラベルではなく、インスタンス依存のパターンに従うことを示す。
論文 参考訳(メタデータ) (2021-10-22T22:42:11Z) - Learning to Aggregate and Refine Noisy Labels for Visual Sentiment
Analysis [69.48582264712854]
本研究では,頑健な視覚的感情分析を行うための頑健な学習手法を提案する。
本手法は,トレーニング中にノイズラベルを集約・フィルタリングするために外部メモリに依存している。
公開データセットを用いたラベルノイズを用いた視覚的感情分析のベンチマークを構築した。
論文 参考訳(メタデータ) (2021-09-15T18:18:28Z) - EvidentialMix: Learning with Combined Open-set and Closed-set Noisy
Labels [30.268962418683955]
開集合ラベルと閉集合ラベルを組み合わせた雑音ラベル問題の新しい変種について検討する。
その結果,従来の最先端手法よりも優れた分類結果と特徴表現が得られた。
論文 参考訳(メタデータ) (2020-11-11T11:15:32Z) - Label Noise Types and Their Effects on Deep Learning [0.0]
本研究では,異なる種類のラベルノイズが学習に与える影響を詳細に分析する。
本稿では,特徴に依存したラベルノイズを生成する汎用フレームワークを提案する。
他の研究者がノイズの多いラベルでアルゴリズムをテストしやすいように、最も一般的に使用されているベンチマークデータセットに対して、破損したラベルを共有します。
論文 参考訳(メタデータ) (2020-03-23T18:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。