論文の概要: Open set label noise learning with robust sample selection and margin-guided module
- arxiv url: http://arxiv.org/abs/2501.04269v1
- Date: Wed, 08 Jan 2025 04:37:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:56:04.213807
- Title: Open set label noise learning with robust sample selection and margin-guided module
- Title(参考訳): 頑健なサンプル選択とマージン誘導モジュールを用いた開集合ラベル雑音学習
- Authors: Yuandi Zhao, Qianxi Xia, Yang Sun, Zhijie Wen, Liyan Ma, Shihui Ying,
- Abstract要約: ラベルノイズのある実世界のデータセットを直接トレーニングすると、過度に適合する可能性がある。
オープンセットラベルノイズ問題に対処するため,ロバストサンプル選択とマージンガイドモジュールに基づく手法を提案する。
提案手法は,多くの最先端のラベル付きノイズ学習手法より優れている。
- 参考スコア(独自算出の注目度): 9.18747065663951
- License:
- Abstract: In recent years, the remarkable success of deep neural networks (DNNs) in computer vision is largely due to large-scale, high-quality labeled datasets. Training directly on real-world datasets with label noise may result in overfitting. The traditional method is limited to deal with closed set label noise, where noisy training data has true class labels within the known label space. However, there are some real-world datasets containing open set label noise, which means that some samples belong to an unknown class outside the known label space. To address the open set label noise problem, we introduce a method based on Robust Sample Selection and Margin-Guided Module (RSS-MGM). Firstly, unlike the prior clean sample selection approach, which only select a limited number of clean samples, a robust sample selection module combines small loss selection or high-confidence sample selection to obtain more clean samples. Secondly, to efficiently distinguish open set label noise and closed set ones, margin functions are designed to filter open-set data and closed set data. Thirdly, different processing methods are selected for different types of samples in order to fully utilize the data's prior information and optimize the whole model. Furthermore, extensive experimental results with noisy labeled data from benchmark datasets and real-world datasets, such as CIFAR-100N-C, CIFAR80N-O, WebFG-469, and Food101N, indicate that our approach outperforms many state-of-the-art label noise learning methods. Especially, it can more accurately divide open set label noise samples and closed set ones.
- Abstract(参考訳): 近年、コンピュータビジョンにおけるディープニューラルネットワーク(DNN)の顕著な成功は主に、大規模で高品質なラベル付きデータセットによるものである。
ラベルノイズのある実世界のデータセットを直接トレーニングすると、過度に適合する可能性がある。
従来の手法は、既知のラベル空間内に真のクラスラベルを持つノイズの多いトレーニングデータを含む閉集合ラベルノイズに対処するために限られている。
しかしながら、オープンセットラベルノイズを含む実世界のデータセットがあるため、いくつかのサンプルは既知のラベル空間の外にある未知のクラスに属している。
オープンセットラベルノイズ問題に対処するため,ロバストサンプル選択とマージンガイドモジュール(RSS-MGM)に基づく手法を提案する。
第一に、少数のクリーンサンプルしか選択しない従来のクリーンサンプル選択手法とは異なり、ロバストなサンプル選択モジュールは小さな損失選択と高信頼なサンプル選択を組み合わせてよりクリーンなサンプルを得る。
第二に、開集合ラベルノイズと閉集合ノイズを効率よく区別するために、開集合データと閉集合データをフィルタするマージン関数を設計する。
第3に、データの事前情報を完全に活用し、モデル全体を最適化するために、異なる種類のサンプルに対して異なる処理方法が選択される。
さらに,CIFAR-100N-C,CIFAR80N-O,WebFG-469,Food101Nといった,ベンチマークデータセットや実世界のデータセットからのノイズラベル付きデータによる広範な実験結果から,我々のアプローチが多くの最先端ラベル学習方法より優れていることが示唆された。
特に、開集合ラベルノイズサンプルと閉集合ノイズサンプルをより正確に分割することができる。
関連論文リスト
- Enhancing Sample Utilization in Noise-Robust Deep Metric Learning With Subgroup-Based Positive-Pair Selection [84.78475642696137]
実世界のデータにノイズラベルが存在することは、ディープラーニングモデルの性能に悪影響を及ぼす。
サブグループに基づく正対選択(SGPS)を用いたノイズロストDMLフレームワークを提案する。
SGPSは、ノイズのあるサンプルに対して信頼性の高い正のペアを構築し、サンプルの利用率を高める。
論文 参考訳(メタデータ) (2025-01-19T14:41:55Z) - ANNE: Adaptive Nearest Neighbors and Eigenvector-based Sample Selection for Robust Learning with Noisy Labels [7.897299759691143]
本稿では,Adaptive Nearest Neighbors and Eigenvector-based sample selection methodを紹介する。
ANNEは、損失に基づくサンプリングとFINEとAdaptive KNNを統合し、幅広いノイズレートシナリオのパフォーマンスを最適化する。
論文 参考訳(メタデータ) (2024-11-03T15:51:38Z) - FedDiv: Collaborative Noise Filtering for Federated Learning with Noisy
Labels [99.70895640578816]
雑音ラベル付きフェデレーション学習(F-LNL)は,協調型分散学習を通じて最適なサーバモデルを求めることを目的としている。
我々はF-LNLの課題に取り組むためにFedDivを提案し、特にフェデレートノイズフィルタと呼ばれるグローバルノイズフィルタを提案する。
論文 参考訳(メタデータ) (2023-12-19T15:46:47Z) - Combating Label Noise With A General Surrogate Model For Sample Selection [77.45468386115306]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning [89.56465237941013]
UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
論文 参考訳(メタデータ) (2022-03-28T07:36:36Z) - PARS: Pseudo-Label Aware Robust Sample Selection for Learning with Noisy
Labels [5.758073912084364]
PARS: Pseudo-Label Aware Robust Sample Selectionを提案する。
PARSは生・雑音ラベルと自己学習による擬似ラベルの推定・修正の両方を用いて、すべてのトレーニングサンプルを利用する。
その結果、PARSはCIFAR-10とCIFAR-100データセットに関する広範な研究において、技術の現状を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-01-26T09:31:55Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - An Ensemble Noise-Robust K-fold Cross-Validation Selection Method for
Noisy Labels [0.9699640804685629]
大規模なデータセットには、ディープニューラルネットワーク(DNN)によって記憶されるような、ラベルのずれたサンプルが含まれている傾向があります。
本稿では, ノイズデータからクリーンなサンプルを効果的に選択するために, アンサンブルノイズ・ロバスト K-fold Cross-Validation Selection (E-NKCVS) を提案する。
我々は,ラベルが手動で異なる雑音比で破損した様々な画像・テキスト分類タスクに対するアプローチを評価する。
論文 参考訳(メタデータ) (2021-07-06T02:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。