論文の概要: LongReMix: Robust Learning with High Confidence Samples in a Noisy Label
Environment
- arxiv url: http://arxiv.org/abs/2103.04173v1
- Date: Sat, 6 Mar 2021 18:48:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 01:57:52.563364
- Title: LongReMix: Robust Learning with High Confidence Samples in a Noisy Label
Environment
- Title(参考訳): LongReMix: ノイズの多いラベル環境における高信頼サンプルによるロバスト学習
- Authors: Filipe R. Cordeiro, Ragav Sachdeva, Vasileios Belagiannis, Ian Reid,
Gustavo Carneiro
- Abstract要約: 新しい2段ノイズラベルトレーニングアルゴリズムLongReMixを提案します。
CIFAR-10, CIFAR-100, WebVision, Clothing1M, Food101-NでLongReMixを試験した。
私たちのアプローチは、ほとんどのデータセットで最先端のパフォーマンスを実現します。
- 参考スコア(独自算出の注目度): 33.376639002442914
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural network models are robust to a limited amount of label noise, but
their ability to memorise noisy labels in high noise rate problems is still an
open issue. The most competitive noisy-label learning algorithms rely on a
2-stage process comprising an unsupervised learning to classify training
samples as clean or noisy, followed by a semi-supervised learning that
minimises the empirical vicinal risk (EVR) using a labelled set formed by
samples classified as clean, and an unlabelled set with samples classified as
noisy. In this paper, we hypothesise that the generalisation of such 2-stage
noisy-label learning methods depends on the precision of the unsupervised
classifier and the size of the training set to minimise the EVR. We empirically
validate these two hypotheses and propose the new 2-stage noisy-label training
algorithm LongReMix. We test LongReMix on the noisy-label benchmarks CIFAR-10,
CIFAR-100, WebVision, Clothing1M, and Food101-N. The results show that our
LongReMix generalises better than competing approaches, particularly in high
label noise problems. Furthermore, our approach achieves state-of-the-art
performance in most datasets. The code will be available upon paper acceptance.
- Abstract(参考訳): ディープニューラルネットワークモデルは、限られた量のラベルノイズに対して堅牢ですが、ノイズレートの問題でノイズの多いラベルを記憶する能力はまだオープンな問題です。
最も競争力のあるノイズラベル学習アルゴリズムは、トレーニングサンプルをクリーンまたはノイズに分類するための教師なし学習を含む2段階のプロセスと、クリーンに分類されたサンプルで形成されたラベル付きセットと、ノイズに分類されたサンプルのラベル付きセットとを用いて、経験的ビクタナルリスク(evr)を最小化する半教師付き学習とからなる。
本稿では,この2段階ノイズラベル学習手法の一般化は,教師なし分類器の精度とEVRを最小化するためのトレーニングセットのサイズに依存すると仮定する。
この2つの仮説を実証的に検証し,新しい2段階雑音ラベル学習アルゴリズムlongremixを提案する。
CIFAR-10, CIFAR-100, WebVision, Clothing1M, Food101-NでLongReMixを試験した。
その結果,我々のlongremixは,特にラベルノイズ問題において,競合するアプローチよりも優れていることがわかった。
さらに,本手法は,ほとんどのデータセットにおいて最先端の性能を実現する。
コードはペーパーの受諾時に利用できます。
関連論文リスト
- Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Reliable Label Correction is a Good Booster When Learning with Extremely
Noisy Labels [65.79898033530408]
極音下での学習に明示的に取り組むために,LC-Boosterと呼ばれる新しい枠組みを導入する。
LC-Boosterは、ラベル補正をサンプル選択に組み込むことで、信頼性の高いラベル修正を通じて、より精製されたサンプルをトレーニングに利用することができる。
実験により、LC-Boosterはいくつかのノイズラベルベンチマークで最先端の結果を前進させることが示された。
論文 参考訳(メタデータ) (2022-04-30T07:19:03Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Learning with Noisy Labels Revisited: A Study Using Real-World Human
Annotations [54.400167806154535]
ノイズラベルを用いた学習に関する既存の研究は、主に合成ラベルノイズに焦点を当てている。
本研究は2つの新しいベンチマークデータセット(CIFAR-10N, CIFAR-100N)を示す。
実世界のノイズラベルは古典的に採用されたクラス依存のラベルではなく、インスタンス依存のパターンに従うことを示す。
論文 参考訳(メタデータ) (2021-10-22T22:42:11Z) - PropMix: Hard Sample Filtering and Proportional MixUp for Learning with
Noisy Labels [36.461580348771435]
最も競争力のあるノイズラベル学習法は、クリーンサンプルとノイズサンプルの教師なし分類に依存している。
PropMixは、ノイズの多いサンプルをフィルタリングする。
PropMixは、CIFAR-10/-100(対称、非対称、セマンティックラベルノイズ付き)、Red Mini-ImageNet(制御ノイズWebラベルから)、Crothing1M、WebVisionの最先端(SOTA)結果を持っている。
論文 参考訳(メタデータ) (2021-10-22T14:27:37Z) - An Ensemble Noise-Robust K-fold Cross-Validation Selection Method for
Noisy Labels [0.9699640804685629]
大規模なデータセットには、ディープニューラルネットワーク(DNN)によって記憶されるような、ラベルのずれたサンプルが含まれている傾向があります。
本稿では, ノイズデータからクリーンなサンプルを効果的に選択するために, アンサンブルノイズ・ロバスト K-fold Cross-Validation Selection (E-NKCVS) を提案する。
我々は,ラベルが手動で異なる雑音比で破損した様々な画像・テキスト分類タスクに対するアプローチを評価する。
論文 参考訳(メタデータ) (2021-07-06T02:14:52Z) - Training Classifiers that are Universally Robust to All Label Noise
Levels [91.13870793906968]
ディープニューラルネットワークは、ラベルノイズの存在下で過度に適合する傾向がある。
ポジティヴ・アンラベルラーニングの新たなサブカテゴリを取り入れた蒸留ベースのフレームワークを提案する。
我々の枠組みは概して中~高騒音レベルにおいて優れています。
論文 参考訳(メタデータ) (2021-05-27T13:49:31Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - EvidentialMix: Learning with Combined Open-set and Closed-set Noisy
Labels [30.268962418683955]
開集合ラベルと閉集合ラベルを組み合わせた雑音ラベル問題の新しい変種について検討する。
その結果,従来の最先端手法よりも優れた分類結果と特徴表現が得られた。
論文 参考訳(メタデータ) (2020-11-11T11:15:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。