論文の概要: Reliable Label Correction is a Good Booster When Learning with Extremely
Noisy Labels
- arxiv url: http://arxiv.org/abs/2205.00186v1
- Date: Sat, 30 Apr 2022 07:19:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 15:22:05.926388
- Title: Reliable Label Correction is a Good Booster When Learning with Extremely
Noisy Labels
- Title(参考訳): 信頼度の高いラベル修正は、非常にノイズの多いラベルで学習する時に役立つ
- Authors: Kai Wang, Xiangyu Peng, Shuo Yang, Jianfei Yang, Zheng Zhu, Xinchao
Wang and Yang You
- Abstract要約: 極音下での学習に明示的に取り組むために,LC-Boosterと呼ばれる新しい枠組みを導入する。
LC-Boosterは、ラベル補正をサンプル選択に組み込むことで、信頼性の高いラベル修正を通じて、より精製されたサンプルをトレーニングに利用することができる。
実験により、LC-Boosterはいくつかのノイズラベルベンチマークで最先端の結果を前進させることが示された。
- 参考スコア(独自算出の注目度): 65.79898033530408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning with noisy labels has aroused much research interest since data
annotations, especially for large-scale datasets, may be inevitably imperfect.
Recent approaches resort to a semi-supervised learning problem by dividing
training samples into clean and noisy sets. This paradigm, however, is prone to
significant degeneration under heavy label noise, as the number of clean
samples is too small for conventional methods to behave well. In this paper, we
introduce a novel framework, termed as LC-Booster, to explicitly tackle
learning under extreme noise. The core idea of LC-Booster is to incorporate
label correction into the sample selection, so that more purified samples,
through the reliable label correction, can be utilized for training, thereby
alleviating the confirmation bias. Experiments show that LC-Booster advances
state-of-the-art results on several noisy-label benchmarks, including CIFAR-10,
CIFAR-100, Clothing1M and WebVision. Remarkably, under the extreme 90\% noise
ratio, LC-Booster achieves 93.5\% and 48.4\% accuracy on CIFAR-10 and
CIFAR-100, surpassing the state-of-the-art by 1.6\% and 7.2\% respectively.
- Abstract(参考訳): ノイズの多いラベルで学ぶことは、データアノテーション、特に大規模データセットが必然的に不完全なため、多くの研究の関心を喚起している。
最近のアプローチでは、トレーニングサンプルをクリーンでノイズの多い集合に分割することで、半教師付き学習問題に取り組んでいる。
しかし、このパラダイムは、従来の手法がうまく振る舞うには、クリーンサンプルの数が小さすぎるため、重ラベルノイズの下で大幅に劣化する傾向にある。
本稿では,極音下での学習に明示的に取り組むための,LC-Boosterと呼ばれる新しいフレームワークを提案する。
lc-boosterの核となる考え方は、ラベル修正をサンプル選択に組み込むことで、より純度の高いサンプルを信頼できるラベル修正を通じてトレーニングに活用し、確認バイアスを軽減することである。
LC-BoosterはCIFAR-10, CIFAR-100, Clothing1M, WebVisionなど,いくつかのノイズラベルベンチマークで最先端の結果が得られた。
CIFAR-10 と CIFAR-100 では、極端に 90 % のノイズ比で 93.5 % と 48.4 % の精度を達成し、それぞれ 1.6 % と 7.2 % を上回っている。
関連論文リスト
- Addressing Long-Tail Noisy Label Learning Problems: a Two-Stage Solution
with Label Refurbishment Considering Label Rarity [13.490974408726323]
ソフトレーベルの改修とマルチエキスパートのアンサンブル学習を組み合わせることで,効果的な2段階のアプローチを提案する。
頑健なソフトラベルの再構築の第1段階では, コントラスト学習により, 偏りのない特徴を習得する。
第2段階では,マルチエキスパート・アンサンブル学習のためのソフト・ラベルを得るために,ラベル改築法を適用した。
論文 参考訳(メタデータ) (2024-03-04T08:06:57Z) - Class Prototype-based Cleaner for Label Noise Learning [73.007001454085]
半教師付き学習法は、雑音ラベル学習問題に対する現在のSOTAソリューションである。
textbfClass textbfPrototype-based label textbfCleaner。
論文 参考訳(メタデータ) (2022-12-21T04:56:41Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning [89.56465237941013]
UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
論文 参考訳(メタデータ) (2022-03-28T07:36:36Z) - PARS: Pseudo-Label Aware Robust Sample Selection for Learning with Noisy
Labels [5.758073912084364]
PARS: Pseudo-Label Aware Robust Sample Selectionを提案する。
PARSは生・雑音ラベルと自己学習による擬似ラベルの推定・修正の両方を用いて、すべてのトレーニングサンプルを利用する。
その結果、PARSはCIFAR-10とCIFAR-100データセットに関する広範な研究において、技術の現状を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-01-26T09:31:55Z) - Sample Prior Guided Robust Model Learning to Suppress Noisy Labels [8.119439844514973]
本稿では,サンプルの事前知識を発生させることで雑音を抑えるための深層モデルの学習を行う新しいフレームワークPGDFを提案する。
我々のフレームワークは、より有益なハードクリーンなサンプルをクリーンにラベル付けされたセットに保存することができる。
我々は,CIFAR-10とCIFAR-100に基づく合成データセットと,WebVisionとChrothing1Mを用いた実世界のデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2021-12-02T13:09:12Z) - Training Classifiers that are Universally Robust to All Label Noise
Levels [91.13870793906968]
ディープニューラルネットワークは、ラベルノイズの存在下で過度に適合する傾向がある。
ポジティヴ・アンラベルラーニングの新たなサブカテゴリを取り入れた蒸留ベースのフレームワークを提案する。
我々の枠組みは概して中~高騒音レベルにおいて優れています。
論文 参考訳(メタデータ) (2021-05-27T13:49:31Z) - LongReMix: Robust Learning with High Confidence Samples in a Noisy Label
Environment [33.376639002442914]
新しい2段ノイズラベルトレーニングアルゴリズムLongReMixを提案します。
CIFAR-10, CIFAR-100, WebVision, Clothing1M, Food101-NでLongReMixを試験した。
私たちのアプローチは、ほとんどのデータセットで最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-03-06T18:48:40Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。