論文の概要: ANNE: Adaptive Nearest Neighbors and Eigenvector-based Sample Selection for Robust Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2411.01613v1
- Date: Sun, 03 Nov 2024 15:51:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:39:49.363330
- Title: ANNE: Adaptive Nearest Neighbors and Eigenvector-based Sample Selection for Robust Learning with Noisy Labels
- Title(参考訳): ANNE:雑音ラベルを用いたロバスト学習のための適応的近接近傍と固有ベクトルに基づくサンプル選択
- Authors: Filipe R. Cordeiro, Gustavo Carneiro,
- Abstract要約: 本稿では,Adaptive Nearest Neighbors and Eigenvector-based sample selection methodを紹介する。
ANNEは、損失に基づくサンプリングとFINEとAdaptive KNNを統合し、幅広いノイズレートシナリオのパフォーマンスを最適化する。
- 参考スコア(独自算出の注目度): 7.897299759691143
- License:
- Abstract: An important stage of most state-of-the-art (SOTA) noisy-label learning methods consists of a sample selection procedure that classifies samples from the noisy-label training set into noisy-label or clean-label subsets. The process of sample selection typically consists of one of the two approaches: loss-based sampling, where high-loss samples are considered to have noisy labels, or feature-based sampling, where samples from the same class tend to cluster together in the feature space and noisy-label samples are identified as anomalies within those clusters. Empirically, loss-based sampling is robust to a wide range of noise rates, while feature-based sampling tends to work effectively in particular scenarios, e.g., the filtering of noisy instances via their eigenvectors (FINE) sampling exhibits greater robustness in scenarios with low noise rates, and the K nearest neighbor (KNN) sampling mitigates better high noise-rate problems. This paper introduces the Adaptive Nearest Neighbors and Eigenvector-based (ANNE) sample selection methodology, a novel approach that integrates loss-based sampling with the feature-based sampling methods FINE and Adaptive KNN to optimize performance across a wide range of noise rate scenarios. ANNE achieves this integration by first partitioning the training set into high-loss and low-loss sub-groups using loss-based sampling. Subsequently, within the low-loss subset, sample selection is performed using FINE, while the high-loss subset employs Adaptive KNN for effective sample selection. We integrate ANNE into the noisy-label learning state of the art (SOTA) method SSR+, and test it on CIFAR-10/-100 (with symmetric, asymmetric and instance-dependent noise), Webvision and ANIMAL-10, where our method shows better accuracy than the SOTA in most experiments, with a competitive training time.
- Abstract(参考訳): 多くの最先端(SOTA)ノイズラベル学習手法の重要な段階は、ノイズラベルトレーニングセットのサンプルをノイズラベルまたはクリーンラベルサブセットに分類するサンプル選択手順である。
サンプル選択のプロセスは一般的に2つのアプローチの1つから成り立っている:損失に基づくサンプリング、高損失なサンプルがノイズのあるラベルを持つと見なされる、または特徴に基づくサンプリング、同じクラスのサンプルが特徴空間に集結する傾向にあり、ノイズの多いラベルのサンプルがそれらのクラスタ内の異常として識別される。
実験的に、損失ベースサンプリングは幅広いノイズレートに対して堅牢であるが、例えば、固有ベクトル(FINE)サンプリングによるノイズインスタンスのフィルタリングはノイズレートの低いシナリオにおいてより堅牢性を示し、K近傍サンプリング(KNN)サンプリングはより優れたノイズレート問題を緩和する。
本稿では,特徴量に基づくサンプリング手法であるFINEとAdaptive KNNを併用し,ノイズレートの幅広いシナリオにおける性能を最適化する手法として,Adaptive Nearest NeighborsとEigenvector-based sample selection Method(ANNE)を提案する。
ANNEは、まずトレーニングセットをロスベースサンプリングを使用して、高損失かつ低損失のサブグループに分割することで、この統合を実現する。
その後、低損失サブセット内でサンプル選択がFINEを使用して行われ、高損失サブセットは効果的なサンプル選択のためにAdaptive KNNを使用する。
我々は、ANNEをSSR+(Noisy-label Learning State-of-the-art)メソッドに統合し、CIFAR-10/-100(対称、非対称、インスタンス依存ノイズ)、Webvision、ANIMAL-10でテストする。
関連論文リスト
- Regroup Median Loss for Combating Label Noise [19.51996047333779]
深層モデルトレーニングには、注釈付きデータの大規模なデータセットが必要である。
多数のサンプルを注釈付けすることが難しいため、誤ったアノテーションによるラベルノイズは避けられない。
ノイズのあるサンプルを選択する確率を低減し,ノイズの多いサンプルの損失を正すために,Regroup Median Loss (RML)を提案する。
論文 参考訳(メタデータ) (2023-12-11T10:19:55Z) - Learning with Noisy Labels Using Collaborative Sample Selection and
Contrastive Semi-Supervised Learning [76.00798972439004]
Collaborative Sample Selection (CSS)は、特定されたクリーンセットからノイズの多いサンプルを削除する。
半教師付き学習において、対照的な損失を伴う協調学習機構を導入する。
論文 参考訳(メタデータ) (2023-10-24T05:37:20Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Instance-dependent Noisy-label Learning with Graphical Model Based Noise-rate Estimation [16.283722126438125]
ラベルノイズ学習(LNL)は、クリーンでノイズの多いラベルサンプルを区別するためにサンプル選択段階を組み込む。
このようなカリキュラムは、トレーニングセットの実際のラベルノイズ率を考慮していないため、準最適である。
本稿では,ほとんどのSOTA (State-of-the-art) LNL法と容易に統合できる新しいノイズレート推定法を用いて,この問題に対処する。
論文 参考訳(メタデータ) (2023-05-31T01:46:14Z) - PASS: Peer-Agreement based Sample Selection for training with Noisy Labels [16.283722126438125]
ノイズラベルサンプルの頻度は、深層学習において重要な課題となり、過剰適合効果を誘発する。
現在の方法論は、しばしばノイズとクリーンなラベルのサンプルを分離するために、小さな損失仮説や特徴に基づく選択に依存している。
本稿では,PASS (Peer-Agreement based Sample Selection) と呼ばれる新しいノイズラベル検出手法を提案する。
論文 参考訳(メタデータ) (2023-03-20T00:35:33Z) - Self-Filtering: A Noise-Aware Sample Selection for Label Noise with
Confidence Penalization [39.90342091782778]
本研究では,歴史予測におけるノイズの多い例の変動を利用した新しい選択手法であるtextbfSelf-textbfFiltextbftering (SFT)を提案する。
具体的には、各例の履歴予測を格納したメモリバンクモジュールを導入し、その後の学習イテレーションの選択をサポートするために動的に更新する。
この項で誤分類されたカテゴリーの重みを増大させることで、損失関数は穏やかな条件下でのノイズのラベル付けに頑健である。
論文 参考訳(メタデータ) (2022-08-24T08:02:36Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning [89.56465237941013]
UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
論文 参考訳(メタデータ) (2022-03-28T07:36:36Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。