論文の概要: CNLL: A Semi-supervised Approach For Continual Noisy Label Learning
- arxiv url: http://arxiv.org/abs/2204.09881v1
- Date: Thu, 21 Apr 2022 05:01:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 13:02:27.002925
- Title: CNLL: A Semi-supervised Approach For Continual Noisy Label Learning
- Title(参考訳): cnll : 連続的雑音ラベル学習のための半教師付きアプローチ
- Authors: Nazmul Karim, Umar Khalid, Ashkan Esmaeili and Nazanin Rahnavard
- Abstract要約: コスト効率と精度の両立したオンラインデータストリームを効果的に浄化する簡単な浄化手法を提案する。
精製後、我々は、利用可能なすべてのサンプルを確実に参加させる半教師付きで微調整を行う。
従来のSOTA法よりも20%のノイズでCIFAR10の24.8%の性能向上を実現した。
- 参考スコア(独自算出の注目度): 12.341250124228859
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The task of continual learning requires careful design of algorithms that can
tackle catastrophic forgetting. However, the noisy label, which is inevitable
in a real-world scenario, seems to exacerbate the situation. While very few
studies have addressed the issue of continual learning under noisy labels, long
training time and complicated training schemes limit their applications in most
cases. In contrast, we propose a simple purification technique to effectively
cleanse the online data stream that is both cost-effective and more accurate.
After purification, we perform fine-tuning in a semi-supervised fashion that
ensures the participation of all available samples. Training in this fashion
helps us learn a better representation that results in state-of-the-art (SOTA)
performance. Through extensive experimentation on 3 benchmark datasets, MNIST,
CIFAR10 and CIFAR100, we show the effectiveness of our proposed approach. We
achieve a 24.8% performance gain for CIFAR10 with 20% noise over previous SOTA
methods. Our code is publicly available.
- Abstract(参考訳): 連続学習の課題は、破滅的な忘れに対処できるアルゴリズムを慎重に設計することである。
しかし、現実のシナリオでは避けられないノイズラベルは、状況を悪化させているようだ。
ノイズラベル下での継続的学習の問題に対処する研究はほとんどないが、長いトレーニング時間と複雑なトレーニングスキームは、ほとんどの場合、その応用を制限する。
対照的に、コスト効率と精度の両立したオンラインデータストリームを効果的に浄化する簡単な浄化手法を提案する。
精製後,半教師方式で微調整を行い,すべてのサンプルの参加を保証する。
この方法でのトレーニングは、最先端(SOTA)のパフォーマンスをもたらすよりよい表現を学ぶのに役立ちます。
MNIST, CIFAR10, CIFAR100の3つのベンチマークデータセットの広範な実験を通じて, 提案手法の有効性を示す。
従来のSOTA法よりも20%のノイズでCIFAR10の24.8%の性能向上を実現した。
私たちのコードは公開されています。
関連論文リスト
- Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - A soft nearest-neighbor framework for continual semi-supervised learning [35.957577587090604]
本稿では,全てのデータサンプルがラベル付けされていない連続的半教師付き学習手法を提案する。
我々は、最も近い隣人の力を利用して、特徴空間を非線形に分割し、基礎となるデータ分布を柔軟にモデル化する。
提案手法は,低解像度画像と高解像度画像の両方で良好に動作し,より複雑なデータセットにシームレスにスケールする。
論文 参考訳(メタデータ) (2022-12-09T20:03:59Z) - Boosting Facial Expression Recognition by A Semi-Supervised Progressive
Teacher [54.50747989860957]
本稿では,信頼度の高いFERデータセットと大規模未ラベル表現画像を有効訓練に用いるための半教師付き学習アルゴリズム,Progressive Teacher (PT)を提案する。
RAF-DB と FERPlus を用いた実験により,RAF-DB で89.57% の精度で最先端の性能を実現する手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-05-28T07:47:53Z) - UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning [89.56465237941013]
UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
論文 参考訳(メタデータ) (2022-03-28T07:36:36Z) - Class-Aware Contrastive Semi-Supervised Learning [51.205844705156046]
本研究では,擬似ラベル品質を向上し,実環境におけるモデルの堅牢性を高めるため,CCSSL(Class-Aware Contrastive Semi-Supervised Learning)と呼ばれる一般的な手法を提案する。
提案するCCSSLは,標準データセットCIFAR100とSTL10の最先端SSLメソッドに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-03-04T12:18:23Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Learning with Noisy Labels Revisited: A Study Using Real-World Human
Annotations [54.400167806154535]
ノイズラベルを用いた学習に関する既存の研究は、主に合成ラベルノイズに焦点を当てている。
本研究は2つの新しいベンチマークデータセット(CIFAR-10N, CIFAR-100N)を示す。
実世界のノイズラベルは古典的に採用されたクラス依存のラベルではなく、インスタンス依存のパターンに従うことを示す。
論文 参考訳(メタデータ) (2021-10-22T22:42:11Z) - Robust Temporal Ensembling for Learning with Noisy Labels [0.0]
本研究では,頑健な時間的アンサンブル(RTE)を半教師付き正規化法と組み合わせ,ノイズロス学習を実現する。
RTEはCIFAR-10、CIFAR-100、ImageNet、WebVision、Food-101Nデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-09-29T16:59:36Z) - Learning From Long-Tailed Data With Noisy Labels [0.0]
クラス不均衡とノイズラベルは多くの大規模分類データセットの標準である。
本稿では,近年の自己教師型学習の進歩をもとに,簡単な2段階のアプローチを提案する。
自己指導型学習アプローチは,重度のクラス不均衡に効果的に対処できることが判明した。
論文 参考訳(メタデータ) (2021-08-25T07:45:40Z) - Contrast to Divide: Self-Supervised Pre-Training for Learning with Noisy
Labels [12.181548895121685]
C2D(Contrast to Divide)は、機能抽出器を自己監督的に事前訓練するフレームワークである。
自己教師付き事前学習を用いることで、既存のLNLアプローチの性能が向上し、ウォームアップステージのノイズレベルへの感受性が大幅に低下する。
実際のノイズ設定では、Mini-WebVisionで訓練されたC2Dは、WebVisionとImageNetの検証セットで以前の作業より3%高い精度で優れています。
論文 参考訳(メタデータ) (2021-03-25T07:40:51Z) - Augmentation Strategies for Learning with Noisy Labels [3.698228929379249]
ノイズラベル付き学習」問題に取り組むアルゴリズムについて,様々な拡張戦略を評価した。
ロスモデリングタスクと学習のための別のセットに拡張の1つのセットを使用することが最も効果的であることがわかります。
我々は,この拡張戦略を最先端技術に導入し,評価されたすべての騒音レベルにおける性能向上を実証する。
論文 参考訳(メタデータ) (2021-03-03T02:19:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。