論文の概要: ProMix: Combating Label Noise via Maximizing Clean Sample Utility
- arxiv url: http://arxiv.org/abs/2207.10276v2
- Date: Fri, 22 Jul 2022 09:43:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-25 10:48:09.117124
- Title: ProMix: Combating Label Noise via Maximizing Clean Sample Utility
- Title(参考訳): promix: クリーンサンプルユーティリティの最大化によるラベルノイズ対策
- Authors: Haobo Wang, Ruixuan Xiao, Yiwen Dong, Lei Feng, Junbo Zhao
- Abstract要約: 最先端のアプローチは、半教師付き学習(SSL)に基づいており、小さな損失例をクリーンに選択し、パフォーマンス向上のためにSSL技術を適用する。
本稿では,クリーンサンプルの有効性を最大化して性能向上を図るため,新しい雑音ラベル学習フレームワークProMixを提案する。
- 参考スコア(独自算出の注目度): 13.312632009059831
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to train deep neural networks under label noise is appealing, as
imperfectly annotated data are relatively cheaper to obtain. State-of-the-art
approaches are based on semi-supervised learning(SSL), which selects small loss
examples as clean and then applies SSL techniques for boosted performance.
However, the selection step mostly provides a medium-sized and decent-enough
clean subset, which overlooks a rich set of clean samples. In this work, we
propose a novel noisy label learning framework ProMix that attempts to maximize
the utility of clean samples for boosted performance. Key to our method, we
propose a matched high-confidence selection technique that selects those
examples having high confidence and matched prediction with its given labels.
Combining with the small-loss selection, our method is able to achieve a
precision of 99.27 and a recall of 98.22 in detecting clean samples on the
CIFAR-10N dataset. Based on such a large set of clean data, ProMix improves the
best baseline method by +2.67% on CIFAR-10N and +1.61% on CIFAR-100N datasets.
The code and data are available at https://github.com/Justherozen/ProMix
- Abstract(参考訳): ラベルノイズ下でディープニューラルネットワークをトレーニングする能力は、不完全な注釈付きデータが比較的安価に取得できるため、魅力的である。
最先端のアプローチは、半教師付き学習(SSL)に基づいており、小さな損失例をクリーンに選択し、パフォーマンス向上のためにSSL技術を適用する。
しかし、選択ステップは、主に中規模でまともなクリーンなサブセットを提供し、豊富なクリーンなサンプルセットを見渡せる。
そこで本研究では,クリーンサンプルの有用性を最大化するために,新しい雑音ラベル学習フレームワークProMixを提案する。
提案手法では,信頼度の高いサンプルを抽出し,与えられたラベルと一致した予測を行う高信頼度選択手法を提案する。
CIFAR-10Nデータセット上のクリーンサンプルの検出において, 99.27の精度と98.22のリコールを実現することができる。
このような大量のクリーンなデータに基づいて、ProMixはCIFAR-10Nで+2.67%、CIFAR-100Nデータセットで+1.61%改善している。
コードとデータはhttps://github.com/justherozen/promixで入手できる。
関連論文リスト
- Learning with Noisy Labels Using Collaborative Sample Selection and
Contrastive Semi-Supervised Learning [76.00798972439004]
Collaborative Sample Selection (CSS)は、特定されたクリーンセットからノイズの多いサンプルを削除する。
半教師付き学習において、対照的な損失を伴う協調学習機構を導入する。
論文 参考訳(メタデータ) (2023-10-24T05:37:20Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - PASS: Peer-Agreement based Sample Selection for training with Noisy
Labels [30.922188228545906]
モデルが過度に適合する傾向にあるため、ノイズラベルはディープラーニングにおいて大きな課題となる。
ピアアグリメントに基づく新しいサンプル選択(PASS)を提案する。
次に、合意スコアに自動しきい値付け手法を適用し、クリーンでノイズの多いラベルサンプルを選択する。
論文 参考訳(メタデータ) (2023-03-20T00:35:33Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning [89.56465237941013]
UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
論文 参考訳(メタデータ) (2022-03-28T07:36:36Z) - Saliency Grafting: Innocuous Attribution-Guided Mixup with Calibrated
Label Mixing [104.630875328668]
ミックスアップスキームは、強化されたトレーニングサンプルを作成するために、サンプルのペアを混ぜることを提案する。
両世界のベストを捉えた、斬新だがシンプルなミックスアップ版を提示する。
論文 参考訳(メタデータ) (2021-12-16T11:27:48Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。