論文の概要: ProMix: Combating Label Noise via Maximizing Clean Sample Utility
- arxiv url: http://arxiv.org/abs/2207.10276v2
- Date: Fri, 22 Jul 2022 09:43:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-25 10:48:09.117124
- Title: ProMix: Combating Label Noise via Maximizing Clean Sample Utility
- Title(参考訳): promix: クリーンサンプルユーティリティの最大化によるラベルノイズ対策
- Authors: Haobo Wang, Ruixuan Xiao, Yiwen Dong, Lei Feng, Junbo Zhao
- Abstract要約: 最先端のアプローチは、半教師付き学習(SSL)に基づいており、小さな損失例をクリーンに選択し、パフォーマンス向上のためにSSL技術を適用する。
本稿では,クリーンサンプルの有効性を最大化して性能向上を図るため,新しい雑音ラベル学習フレームワークProMixを提案する。
- 参考スコア(独自算出の注目度): 13.312632009059831
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to train deep neural networks under label noise is appealing, as
imperfectly annotated data are relatively cheaper to obtain. State-of-the-art
approaches are based on semi-supervised learning(SSL), which selects small loss
examples as clean and then applies SSL techniques for boosted performance.
However, the selection step mostly provides a medium-sized and decent-enough
clean subset, which overlooks a rich set of clean samples. In this work, we
propose a novel noisy label learning framework ProMix that attempts to maximize
the utility of clean samples for boosted performance. Key to our method, we
propose a matched high-confidence selection technique that selects those
examples having high confidence and matched prediction with its given labels.
Combining with the small-loss selection, our method is able to achieve a
precision of 99.27 and a recall of 98.22 in detecting clean samples on the
CIFAR-10N dataset. Based on such a large set of clean data, ProMix improves the
best baseline method by +2.67% on CIFAR-10N and +1.61% on CIFAR-100N datasets.
The code and data are available at https://github.com/Justherozen/ProMix
- Abstract(参考訳): ラベルノイズ下でディープニューラルネットワークをトレーニングする能力は、不完全な注釈付きデータが比較的安価に取得できるため、魅力的である。
最先端のアプローチは、半教師付き学習(SSL)に基づいており、小さな損失例をクリーンに選択し、パフォーマンス向上のためにSSL技術を適用する。
しかし、選択ステップは、主に中規模でまともなクリーンなサブセットを提供し、豊富なクリーンなサンプルセットを見渡せる。
そこで本研究では,クリーンサンプルの有用性を最大化するために,新しい雑音ラベル学習フレームワークProMixを提案する。
提案手法では,信頼度の高いサンプルを抽出し,与えられたラベルと一致した予測を行う高信頼度選択手法を提案する。
CIFAR-10Nデータセット上のクリーンサンプルの検出において, 99.27の精度と98.22のリコールを実現することができる。
このような大量のクリーンなデータに基づいて、ProMixはCIFAR-10Nで+2.67%、CIFAR-100Nデータセットで+1.61%改善している。
コードとデータはhttps://github.com/justherozen/promixで入手できる。
関連論文リスト
- ANNE: Adaptive Nearest Neighbors and Eigenvector-based Sample Selection for Robust Learning with Noisy Labels [7.897299759691143]
本稿では,Adaptive Nearest Neighbors and Eigenvector-based sample selection methodを紹介する。
ANNEは、損失に基づくサンプリングとFINEとAdaptive KNNを統合し、幅広いノイズレートシナリオのパフォーマンスを最適化する。
論文 参考訳(メタデータ) (2024-11-03T15:51:38Z) - Foster Adaptivity and Balance in Learning with Noisy Labels [26.309508654960354]
我々はtextbfSelf-adaptivtextbfE とクラスバランスtextbfD 方式でラベルノイズに対処するための textbfSED という新しい手法を提案する。
平均教師モデルは、ノイズの多いサンプルのラベルを修正するために使用される。
また,検出した雑音に異なる重みを割り当てる自己適応型およびクラスバランスのサンプル再重み付け機構を提案する。
論文 参考訳(メタデータ) (2024-07-03T03:10:24Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Learning with Noisy Labels Using Collaborative Sample Selection and
Contrastive Semi-Supervised Learning [76.00798972439004]
Collaborative Sample Selection (CSS)は、特定されたクリーンセットからノイズの多いサンプルを削除する。
半教師付き学習において、対照的な損失を伴う協調学習機構を導入する。
論文 参考訳(メタデータ) (2023-10-24T05:37:20Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - PASS: Peer-Agreement based Sample Selection for training with Noisy Labels [16.283722126438125]
ノイズラベルサンプルの頻度は、深層学習において重要な課題となり、過剰適合効果を誘発する。
現在の方法論は、しばしばノイズとクリーンなラベルのサンプルを分離するために、小さな損失仮説や特徴に基づく選択に依存している。
本稿では,PASS (Peer-Agreement based Sample Selection) と呼ばれる新しいノイズラベル検出手法を提案する。
論文 参考訳(メタデータ) (2023-03-20T00:35:33Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning [89.56465237941013]
UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
論文 参考訳(メタデータ) (2022-03-28T07:36:36Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。