論文の概要: Bootstrapping the Relationship Between Images and Their Clean and Noisy
Labels
- arxiv url: http://arxiv.org/abs/2210.08826v1
- Date: Mon, 17 Oct 2022 08:15:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 19:36:50.607033
- Title: Bootstrapping the Relationship Between Images and Their Clean and Noisy
Labels
- Title(参考訳): 画像とクリーンでノイズの多いラベルの関係のブートストラップ
- Authors: Brandon Smart and Gustavo Carneiro
- Abstract要約: クリーンラベルとノイズラベルの関係を学習するために,簡単なモデルに基づく新しいトレーニングアルゴリズムを提案する。
この関係を学習することにより、非対称およびインスタンス依存のラベルノイズ問題において最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 14.16958860081955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many state-of-the-art noisy-label learning methods rely on learning
mechanisms that estimate the samples' clean labels during training and discard
their original noisy labels. However, this approach prevents the learning of
the relationship between images, noisy labels and clean labels, which has been
shown to be useful when dealing with instance-dependent label noise problems.
Furthermore, methods that do aim to learn this relationship require cleanly
annotated subsets of data, as well as distillation or multi-faceted models for
training. In this paper, we propose a new training algorithm that relies on a
simple model to learn the relationship between clean and noisy labels without
the need for a cleanly labelled subset of data. Our algorithm follows a 3-stage
process, namely: 1) self-supervised pre-training followed by an early-stopping
training of the classifier to confidently predict clean labels for a subset of
the training set; 2) use the clean set from stage (1) to bootstrap the
relationship between images, noisy labels and clean labels, which we exploit
for effective relabelling of the remaining training set using semi-supervised
learning; and 3) supervised training of the classifier with all relabelled
samples from stage (2). By learning this relationship, we achieve
state-of-the-art performance in asymmetric and instance-dependent label noise
problems.
- Abstract(参考訳): 最新のノイズラベル学習手法の多くは、トレーニング中にサンプルのクリーンラベルを推定し、元のノイズラベルを破棄する学習メカニズムに依存している。
しかし、このアプローチは、インスタンス依存のラベルノイズ問題を扱う際に有用であることが示されている画像、ノイズラベル、クリーンラベルの関係の学習を妨げている。
さらに、この関係を学ぶための方法は、トレーニングのために蒸留や多面モデルと同様に、きれいにアノテートされたデータのサブセットを必要とする。
本稿では,クリーンラベル付きデータのサブセットを必要とせず,クリーンラベルとノイズラベルの関係を学習するための簡易モデルに基づく新しい学習アルゴリズムを提案する。
我々のアルゴリズムは以下の3段階のプロセスに従う。
1) 自己監督型事前訓練に続いて,訓練セットのサブセットのクリーンラベルを確実に予測するために,分類器の早期訓練を行う。
2) ステージ(1) からのクリーンセットを用いて, 画像, 雑音ラベル, クリーンラベルの関係をブートストラップし, 半教師学習による残りのトレーニングセットの効果的なリラベリングを行う。
この関係を学習することにより、非対称およびインスタンス依存のラベルノイズ問題において最先端の性能を実現する。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Determined Multi-Label Learning via Similarity-Based Prompt [12.428779617221366]
マルチラベル分類では、各トレーニングインスタンスは複数のクラスラベルに同時に関連付けられている。
この問題を軽減するために,textitDetermined Multi-Label Learning (DMLL) と呼ばれる新しいラベル設定を提案する。
論文 参考訳(メタデータ) (2024-03-25T07:08:01Z) - Pseudo-labelling meets Label Smoothing for Noisy Partial Label Learning [8.387189407144403]
部分ラベル学習(Partial label learning、PLL)は、各トレーニングインスタンスが候補ラベル(Partial label)のセットとペアリングされる弱い教師付き学習パラダイムである。
NPLLはこの制約を緩和し、一部の部分ラベルが真のラベルを含まないようにし、問題の実用性を高める。
本稿では,近傍の重み付けアルゴリズムを用いて,雑音のある部分ラベルを利用して画像に擬似ラベルを割り当てる最小限のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T13:32:47Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Asymmetric Co-teaching with Multi-view Consensus for Noisy Label
Learning [15.690502285538411]
Asymmetric Co-Teaching (AsyCo) というノイズラベル学習手法を導入する。
AsyCoは、共学モデルのより一貫性のある分岐結果を生成する。
合成および実世界のノイズラベルデータセットの実験は、AsyCoが現在のSOTA法よりも改善していることを示している。
論文 参考訳(メタデータ) (2023-01-01T04:10:03Z) - Sample Prior Guided Robust Model Learning to Suppress Noisy Labels [8.119439844514973]
本稿では,サンプルの事前知識を発生させることで雑音を抑えるための深層モデルの学習を行う新しいフレームワークPGDFを提案する。
我々のフレームワークは、より有益なハードクリーンなサンプルをクリーンにラベル付けされたセットに保存することができる。
我々は,CIFAR-10とCIFAR-100に基づく合成データセットと,WebVisionとChrothing1Mを用いた実世界のデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2021-12-02T13:09:12Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - A Closer Look at Self-training for Zero-Label Semantic Segmentation [53.4488444382874]
トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
論文 参考訳(メタデータ) (2021-04-21T14:34:33Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - EvidentialMix: Learning with Combined Open-set and Closed-set Noisy
Labels [30.268962418683955]
開集合ラベルと閉集合ラベルを組み合わせた雑音ラベル問題の新しい変種について検討する。
その結果,従来の最先端手法よりも優れた分類結果と特徴表現が得られた。
論文 参考訳(メタデータ) (2020-11-11T11:15:32Z) - Class2Simi: A Noise Reduction Perspective on Learning with Noisy Labels [98.13491369929798]
そこで我々は,ノイズのあるクラスラベルを持つデータポイントを,ノイズの多い類似ラベルを持つデータペアに変換するClass2Simiというフレームワークを提案する。
Class2Simiは、この変換がミニバッチのオンザフライであるだけでなく、モデル予測上の損失をペアワイズに変化させるため、計算的に効率的である。
論文 参考訳(メタデータ) (2020-06-14T07:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。