論文の概要: Robust Noisy Label Learning via Two-Stream Sample Distillation
- arxiv url: http://arxiv.org/abs/2404.10499v1
- Date: Tue, 16 Apr 2024 12:18:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 17:03:46.219920
- Title: Robust Noisy Label Learning via Two-Stream Sample Distillation
- Title(参考訳): 2ストリームサンプル蒸留によるロバスト雑音ラベル学習
- Authors: Sihan Bai, Sanping Zhou, Zheng Qin, Le Wang, Nanning Zheng,
- Abstract要約: ノイズラベル学習は、ノイズラベルの監督の下で堅牢なネットワークを学習することを目的としている。
我々はTSSD(Two-Stream Sample Distillation)と呼ばれるシンプルで効果的なサンプル選択フレームワークを設計する。
このフレームワークは、ネットワークトレーニングの堅牢性を改善するために、クリーンなラベルでより高品質なサンプルを抽出することができる。
- 参考スコア(独自算出の注目度): 48.73316242851264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Noisy label learning aims to learn robust networks under the supervision of noisy labels, which plays a critical role in deep learning. Existing work either conducts sample selection or label correction to deal with noisy labels during the model training process. In this paper, we design a simple yet effective sample selection framework, termed Two-Stream Sample Distillation (TSSD), for noisy label learning, which can extract more high-quality samples with clean labels to improve the robustness of network training. Firstly, a novel Parallel Sample Division (PSD) module is designed to generate a certain training set with sufficient reliable positive and negative samples by jointly considering the sample structure in feature space and the human prior in loss space. Secondly, a novel Meta Sample Purification (MSP) module is further designed to mine adequate semi-hard samples from the remaining uncertain training set by learning a strong meta classifier with extra golden data. As a result, more and more high-quality samples will be distilled from the noisy training set to train networks robustly in every iteration. Extensive experiments on four benchmark datasets, including CIFAR-10, CIFAR-100, Tiny-ImageNet, and Clothing-1M, show that our method has achieved state-of-the-art results over its competitors.
- Abstract(参考訳): ノイズラベル学習は、ディープラーニングにおいて重要な役割を果たすノイズラベルの監督の下で堅牢なネットワークを学習することを目的としている。
既存の作業は、モデルトレーニングプロセス中にノイズラベルを扱うためにサンプル選択またはラベル修正を行う。
本稿では,より高品質なサンプルをクリーンなラベルで抽出し,ネットワークトレーニングの堅牢性を向上させるための,TSSD(Two-Stream Sample Distillation)と呼ばれる単純なサンプル選択フレームワークを設計する。
第一に、新規な並列サンプル分割(PSD)モジュールは、特徴空間におけるサンプル構造と損失空間におけるヒトの先行性について共同で検討することにより、十分な信頼できる正および負のサンプルを持つ特定のトレーニングセットを生成するように設計されている。
第二に、新しいメタサンプル精製(MSP)モジュールは、余分な黄金データを持つ強力なメタ分類器を学習することにより、残りの不確実なトレーニングセットから十分な半硬度サンプルをマイニングするように設計されている。
結果として、各イテレーションでネットワークを堅牢にトレーニングするためのノイズの多いトレーニングセットから、より高品質なサンプルが蒸留されるようになる。
CIFAR-10, CIFAR-100, Tiny-ImageNet, Clothing-1M を含む4つのベンチマークデータセットに対する大規模な実験により、我々の手法が競合相手に対して最先端の結果を得たことを示す。
関連論文リスト
- Mitigating Noisy Supervision Using Synthetic Samples with Soft Labels [13.314778587751588]
ノイズラベルは、特にクラウドソーシングやWeb検索から派生した大規模データセットにおいて、現実世界のデータセットにおいてユビキタスである。
トレーニング中にノイズの多いラベルを過度に適合させる傾向にあるため、ノイズの多いデータセットでディープニューラルネットワークをトレーニングすることは難しい。
ノイズラベルの影響を軽減するために,新しい合成サンプルを用いてモデルを訓練するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-22T04:49:39Z) - Pairwise Similarity Distribution Clustering for Noisy Label Learning [0.0]
ノイズラベル学習は、ノイズラベルを持つ大量のサンプルを使用してディープニューラルネットワークをトレーニングすることを目的としている。
トレーニングサンプルを1つのクリーンなセットと別のノイズのあるセットに分割する,単純で効果的なサンプル選択アルゴリズムを提案する。
CIFAR-10、CIFAR-100、Clothing1Mといった様々なベンチマークデータセットの実験結果は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-04-02T11:30:22Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Sample Prior Guided Robust Model Learning to Suppress Noisy Labels [8.119439844514973]
本稿では,サンプルの事前知識を発生させることで雑音を抑えるための深層モデルの学習を行う新しいフレームワークPGDFを提案する。
我々のフレームワークは、より有益なハードクリーンなサンプルをクリーンにラベル付けされたセットに保存することができる。
我々は,CIFAR-10とCIFAR-100に基づく合成データセットと,WebVisionとChrothing1Mを用いた実世界のデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2021-12-02T13:09:12Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Active Learning for Deep Visual Tracking [51.5063680734122]
畳み込みニューラルネットワーク(CNN)は近年,単一目標追跡タスクに成功している。
本稿では,ディープ・ビジュアル・トラッキングのためのアクティブ・ラーニング手法を提案する。
アクティブラーニングの指導のもと、トレーニングされた深層CNNモデルに基づくトラッカーは、ラベリングコストを低減しつつ、競合的なトラッキング性能を達成することができる。
論文 参考訳(メタデータ) (2021-10-17T11:47:56Z) - Transform consistency for learning with noisy labels [9.029861710944704]
単一のネットワークのみを用いてクリーンサンプルを同定する手法を提案する。
きれいなサンプルは元のイメージおよび変形したイメージのための一貫した予測に達することを好みます。
ノイズラベルの負の影響を軽減するために,オフラインのハードラベルとオンラインのソフトラベルを用いて分類損失を設計する。
論文 参考訳(メタデータ) (2021-03-25T14:33:13Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Efficient Deep Representation Learning by Adaptive Latent Space Sampling [16.320898678521843]
監視されたディープラーニングには、アノテーションを備えた大量のトレーニングサンプルが必要です。
本稿では,学習プロセスに供給される情報サンプルを適応的に選択する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-19T22:17:02Z) - DivideMix: Learning with Noisy Labels as Semi-supervised Learning [111.03364864022261]
ノイズラベルを学習するためのフレームワークであるDivideMixを提案する。
複数のベンチマークデータセットの実験は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-18T06:20:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。