論文の概要: UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning
- arxiv url: http://arxiv.org/abs/2203.14542v2
- Date: Thu, 31 Mar 2022 07:41:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-02 15:25:49.820202
- Title: UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning
- Title(参考訳): UNICON: 一様選択とコントラスト学習によるラベルノイズの燃焼
- Authors: Nazmul Karim, Mamshad Nayeem Rizve, Nazanin Rahnavard, Ajmal Mian,
Mubarak Shah
- Abstract要約: UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
- 参考スコア(独自算出の注目度): 89.56465237941013
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Supervised deep learning methods require a large repository of annotated
data; hence, label noise is inevitable. Training with such noisy data
negatively impacts the generalization performance of deep neural networks. To
combat label noise, recent state-of-the-art methods employ some sort of sample
selection mechanism to select a possibly clean subset of data. Next, an
off-the-shelf semi-supervised learning method is used for training where
rejected samples are treated as unlabeled data. Our comprehensive analysis
shows that current selection methods disproportionately select samples from
easy (fast learnable) classes while rejecting those from relatively harder
ones. This creates class imbalance in the selected clean set and in turn,
deteriorates performance under high label noise. In this work, we propose
UNICON, a simple yet effective sample selection method which is robust to high
label noise. To address the disproportionate selection of easy and hard
samples, we introduce a Jensen-Shannon divergence based uniform selection
mechanism which does not require any probabilistic modeling and hyperparameter
tuning. We complement our selection method with contrastive learning to further
combat the memorization of noisy labels. Extensive experimentation on multiple
benchmark datasets demonstrates the effectiveness of UNICON; we obtain an 11.4%
improvement over the current state-of-the-art on CIFAR100 dataset with a 90%
noise rate. Our code is publicly available
- Abstract(参考訳): 教師付きディープラーニングは、注釈付きデータの大規模なリポジトリを必要とするため、ラベルノイズは避けられない。
このようなノイズの多いデータのトレーニングは、ディープニューラルネットワークの一般化性能に悪影響を及ぼす。
ラベルノイズに対処するために、最新の最先端の手法では、データのクリーンなサブセットを選択するために、ある種のサンプル選択メカニズムを使用している。
次に、サンプルをラベル付けされていないデータとして扱う訓練に、既成の半教師付き学習法を用いる。
包括的分析の結果,従来の選択手法は比較的難易度の高いクラスからサンプルを選別しつつ,比較的難易度の高いクラスからサンプルを選別する。
これにより、選択されたクリーンセットにおけるクラス不均衡が生じ、高いラベルノイズ下での性能が低下する。
本研究では,高ラベル雑音に対して頑健な単純かつ効果的なサンプル選択法であるUNICONを提案する。
簡便でハードなサンプルの選択の不釣り合いに対処するために,確率的モデリングやハイパーパラメータチューニングを必要としないjensen-shannon divergenceに基づく一様選択機構を提案する。
我々は、雑音ラベルの記憶と戦うために、コントラスト学習による選択法を補完する。
複数のベンチマークデータセットに対する大規模な実験は、UNICONの有効性を示し、90%のノイズレートで現在のCIFAR100データセットよりも11.4%改善されている。
私たちのコードは公開されています
関連論文リスト
- Foster Adaptivity and Balance in Learning with Noisy Labels [26.309508654960354]
我々はtextbfSelf-adaptivtextbfE とクラスバランスtextbfD 方式でラベルノイズに対処するための textbfSED という新しい手法を提案する。
平均教師モデルは、ノイズの多いサンプルのラベルを修正するために使用される。
また,検出した雑音に異なる重みを割り当てる自己適応型およびクラスバランスのサンプル再重み付け機構を提案する。
論文 参考訳(メタデータ) (2024-07-03T03:10:24Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Adaptive Sample Selection for Robust Learning under Label Noise [1.71982924656402]
ディープニューラルネットワーク(DNN)は、ノイズの多いラベル付きデータの存在下で記憶や過度な適合の影響を受けることが示されている。
著名なアルゴリズムのクラスは、カリキュラム学習に動機づけられたサンプル選択戦略に依存している。
本稿では,バッチ統計のみに依存するデータ依存型適応型サンプル選択手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:10:58Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Multi-Objective Interpolation Training for Robustness to Label Noise [17.264550056296915]
標準教師付きコントラスト学習はラベル雑音の存在下で劣化することを示す。
コントラスト学習により学習したロバストな特徴表現を利用する新しいラベルノイズ検出手法を提案する。
合成および実世界のノイズベンチマークの実験は、MOIT/MOIT+が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2020-12-08T15:01:54Z) - No Regret Sample Selection with Noisy Labels [0.0]
複数の雑音ラベル付きデータセットに対する実験結果から,サンプル選択戦略がDNNトレーニングに有効であることが示された。
提案手法は, 計算コストを著しく低減しつつ, 最先端手法のベストあるいは2番目に高い性能を実現する。
論文 参考訳(メタデータ) (2020-03-06T13:17:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。