論文の概要: Error-Bounded Correction of Noisy Labels
- arxiv url: http://arxiv.org/abs/2011.10077v1
- Date: Thu, 19 Nov 2020 19:23:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 20:32:02.145634
- Title: Error-Bounded Correction of Noisy Labels
- Title(参考訳): 雑音ラベルの誤差境界補正
- Authors: Songzhu Zheng, Pengxiang Wu, Aman Goswami, Mayank Goswami, Dimitris
Metaxas, Chao Chen
- Abstract要約: ノイズのある分類器の予測は、トレーニングデータのラベルがクリーンかどうかを示す良い指標であることを示す。
理論的結果に基づいて,雑音分類器の予測に基づいてラベルを補正する新しいアルゴリズムを提案する。
ラベル補正アルゴリズムをディープニューラルネットワークのトレーニングや,複数の公開データセット上で優れたテスト性能を実現するトレーニングモデルに組み込む。
- 参考スコア(独自算出の注目度): 17.510654621245656
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: To collect large scale annotated data, it is inevitable to introduce label
noise, i.e., incorrect class labels. To be robust against label noise, many
successful methods rely on the noisy classifiers (i.e., models trained on the
noisy training data) to determine whether a label is trustworthy. However, it
remains unknown why this heuristic works well in practice. In this paper, we
provide the first theoretical explanation for these methods. We prove that the
prediction of a noisy classifier can indeed be a good indicator of whether the
label of a training data is clean. Based on the theoretical result, we propose
a novel algorithm that corrects the labels based on the noisy classifier
prediction. The corrected labels are consistent with the true Bayesian optimal
classifier with high probability. We incorporate our label correction algorithm
into the training of deep neural networks and train models that achieve
superior testing performance on multiple public datasets.
- Abstract(参考訳): 大規模な注釈付きデータを収集するには、ラベルノイズ、すなわち不正なクラスラベルを導入することは避けられない。
ラベルノイズに対して頑健であるためには、多くの手法がノイズ分類器(すなわち、ノイズトレーニングデータでトレーニングされたモデル)に依存し、ラベルが信頼できるかどうかを判断する。
しかし、なぜこのヒューリスティックがうまく機能するのかは不明である。
本稿では,これらの手法に関する最初の理論的説明を行う。
ノイズ分類器の予測は、トレーニングデータのラベルがクリーンかどうかを示す良い指標となることが証明される。
理論的な結果に基づいて,雑音分類器の予測に基づいてラベルを補正する新しいアルゴリズムを提案する。
補正されたラベルは、高い確率で真のベイズ最適分類器と一致する。
ラベル補正アルゴリズムをディープニューラルネットワークのトレーニングとトレーニングモデルに組み込んで,複数の公開データセットで優れたテストパフォーマンスを実現します。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - From Noisy Prediction to True Label: Noisy Prediction Calibration via
Generative Model [22.722830935155223]
ノイズ予測(NPC)は、ノイズラベルで学習する新しいアプローチである。
NPCは、事前訓練された分類器から真のラベルへのノイズ予測を後処理スキームとして修正する。
本手法は,合成および実世界の両方のデータセット上でのベースラインモデルの分類性能を向上させる。
論文 参考訳(メタデータ) (2022-05-02T07:15:45Z) - Two Wrongs Don't Make a Right: Combating Confirmation Bias in Learning
with Label Noise [6.303101074386922]
Robust Label Refurbishment (Robust LR) は、擬似ラベルと信頼度推定技術を組み込んだ新しいハイブリッド手法である。
本手法はラベルノイズと確認バイアスの両方の損傷を軽減できることを示す。
例えば、Robust LRは、実世界のノイズデータセットであるWebVisionにおいて、以前の最高値よりも最大4.5%の絶対的トップ1精度の向上を実現している。
論文 参考訳(メタデータ) (2021-12-06T12:10:17Z) - Instance Correction for Learning with Open-set Noisy Labels [145.06552420999986]
オープンセットノイズラベルの処理にはサンプル選択方式を用いる。
廃棄されたデータは間違ったラベルで書かれており、トレーニングには参加していない。
廃棄されたデータのインスタンスを変更して、廃棄されたデータの予測をラベルに一致させる。
論文 参考訳(メタデータ) (2021-06-01T13:05:55Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - EvidentialMix: Learning with Combined Open-set and Closed-set Noisy
Labels [30.268962418683955]
開集合ラベルと閉集合ラベルを組み合わせた雑音ラベル問題の新しい変種について検討する。
その結果,従来の最先端手法よりも優れた分類結果と特徴表現が得られた。
論文 参考訳(メタデータ) (2020-11-11T11:15:32Z) - Class2Simi: A Noise Reduction Perspective on Learning with Noisy Labels [98.13491369929798]
そこで我々は,ノイズのあるクラスラベルを持つデータポイントを,ノイズの多い類似ラベルを持つデータペアに変換するClass2Simiというフレームワークを提案する。
Class2Simiは、この変換がミニバッチのオンザフライであるだけでなく、モデル予測上の損失をペアワイズに変化させるため、計算的に効率的である。
論文 参考訳(メタデータ) (2020-06-14T07:55:32Z) - Multi-Class Classification from Noisy-Similarity-Labeled Data [98.13491369929798]
雑音に類似したラベル付きデータのみから学習する方法を提案する。
ノイズ遷移行列を用いて、クリーンデータとノイズデータの間にクラス後確率をブリッジする。
雑音のないクラスラベルをインスタンスに割り当てる新しい学習システムを構築した。
論文 参考訳(メタデータ) (2020-02-16T05:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。