論文の概要: Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels
- arxiv url: http://arxiv.org/abs/2207.14476v1
- Date: Fri, 29 Jul 2022 04:54:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 12:48:00.834857
- Title: Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels
- Title(参考訳): 中心性と一貫性:インスタンス依存雑音ラベルを用いた学習のための2段階クリーンサンプル同定
- Authors: Ganlong Zhao, Guanbin Li, Yipeng Qin, Feng Liu, Yizhou Yu
- Abstract要約: 本稿では,2段階のクリーンサンプル識別手法を提案する。
まず,クリーンサンプルの早期同定にクラスレベルの特徴クラスタリング手法を用いる。
次に, 基底真理クラス境界に近い残余のクリーンサンプルについて, 一貫性に基づく新しい分類法を提案する。
- 参考スコア(独自算出の注目度): 87.48541631675889
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep models trained with noisy labels are prone to over-fitting and struggle
in generalization. Most existing solutions are based on an ideal assumption
that the label noise is class-conditional, i.e., instances of the same class
share the same noise model, and are independent of features. While in practice,
the real-world noise patterns are usually more fine-grained as
instance-dependent ones, which poses a big challenge, especially in the
presence of inter-class imbalance. In this paper, we propose a two-stage clean
samples identification method to address the aforementioned challenge. First,
we employ a class-level feature clustering procedure for the early
identification of clean samples that are near the class-wise prediction
centers. Notably, we address the class imbalance problem by aggregating rare
classes according to their prediction entropy. Second, for the remaining clean
samples that are close to the ground truth class boundary (usually mixed with
the samples with instance-dependent noises), we propose a novel
consistency-based classification method that identifies them using the
consistency of two classifier heads: the higher the consistency, the larger the
probability that a sample is clean. Extensive experiments on several
challenging benchmarks demonstrate the superior performance of our method
against the state-of-the-art.
- Abstract(参考訳): ノイズラベルでトレーニングされた深層モデルは、過剰フィッティングや一般化に苦しむ傾向がある。
既存のソリューションのほとんどは、ラベルノイズがクラス条件、すなわち同じクラスのインスタンスが同じノイズモデルを共有し、機能に依存しないという理想的な仮定に基づいている。
実際には、実世界のノイズパターンは、通常、インスタンス依存のノイズパターンよりもきめ細かな粒度であり、特にクラス間の不均衡の存在において大きな課題を引き起こす。
本稿では,上記の課題に対処する2段階のクリーンサンプル識別手法を提案する。
まず,クラス毎の予測センタに近いクリーンなサンプルを早期に識別するために,クラスレベルの特徴クラスタリング手法を用いる。
特に,その予測エントロピーに応じてレアクラスを集約することにより,クラス不均衡問題に対処する。
第二に、基底真理クラス境界に近い残りのクリーンサンプル(通常、インスタンス依存ノイズを持つサンプルと混合)について、2つの分類器ヘッドの一貫性を利用してそれらを識別する新しい一貫性に基づく分類法を提案する。
いくつかの難解なベンチマークに関する広範囲な実験は、最先端の手法に対する優れた性能を示している。
関連論文リスト
- Foster Adaptivity and Balance in Learning with Noisy Labels [26.309508654960354]
我々はtextbfSelf-adaptivtextbfE とクラスバランスtextbfD 方式でラベルノイズに対処するための textbfSED という新しい手法を提案する。
平均教師モデルは、ノイズの多いサンプルのラベルを修正するために使用される。
また,検出した雑音に異なる重みを割り当てる自己適応型およびクラスバランスのサンプル再重み付け機構を提案する。
論文 参考訳(メタデータ) (2024-07-03T03:10:24Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - PASS: Peer-Agreement based Sample Selection for training with Noisy Labels [16.283722126438125]
ノイズラベルサンプルの頻度は、深層学習において重要な課題となり、過剰適合効果を誘発する。
現在の方法論は、しばしばノイズとクリーンなラベルのサンプルを分離するために、小さな損失仮説や特徴に基づく選択に依存している。
本稿では,PASS (Peer-Agreement based Sample Selection) と呼ばれる新しいノイズラベル検出手法を提案する。
論文 参考訳(メタデータ) (2023-03-20T00:35:33Z) - Combating Noisy Labels in Long-Tailed Image Classification [33.40963778043824]
本稿では,長期分布とラベルノイズの両方を用いて,画像分類課題に早期に取り組む。
既存のノイズキャンバス学習手法では, ノイズの多いサンプルをテールクラスのクリーンなサンプルと区別することが難しいため, このシナリオでは機能しない。
本稿では,弱いデータと強いデータに対する推測の一致に基づく新しい学習パラダイムを提案し,ノイズのあるサンプルをスクリーニングする。
論文 参考訳(メタデータ) (2022-09-01T07:31:03Z) - Learning from Noisy Labels with Coarse-to-Fine Sample Credibility
Modeling [22.62790706276081]
ノイズの多いラベルでディープニューラルネットワーク(DNN)を訓練することは事実上難しい。
従来の取り組みでは、統合されたデノナイジングフローで部分データや完全なデータを扱う傾向があります。
本研究では,ノイズの多いデータを分割・分散的に処理するために,CREMAと呼ばれる粗大な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-23T02:06:38Z) - Label-Noise Learning with Intrinsically Long-Tailed Data [65.41318436799993]
本稿では,本質的な長期データを用いたラベルノイズ学習のための学習フレームワークを提案する。
具体的には, 2段階の2次元試料選択法(TABASCO)を提案する。
論文 参考訳(メタデータ) (2022-08-21T07:47:05Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。