論文の概要: Set a Thief to Catch a Thief: Combating Label Noise through Noisy Meta Learning
- arxiv url: http://arxiv.org/abs/2502.16104v1
- Date: Sat, 22 Feb 2025 05:58:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:56:48.212220
- Title: Set a Thief to Catch a Thief: Combating Label Noise through Noisy Meta Learning
- Title(参考訳): 壁をつかむための壁をセットする:ノイズメタ学習によるラベルノイズの燃焼
- Authors: Hanxuan Wang, Na Lu, Xueying Zhao, Yuxuan Yan, Kaipeng Ma, Kwoh Chee Keong, Gustavo Carneiro,
- Abstract要約: ノイズラベル(LNL)からの学習は、ノイズデータセットを使用して高性能なディープモデルをトレーニングすることを目的としている。
本稿では,ラベルノイズの補正にノイズデータを用いる新しい雑音付きメタラベル補正フレームワークSTCTを提案する。
STCTは、96.9%のラベル修正と95.2%の分類性能をCIFAR-10で達成し、80%の対称ノイズを持つ。
- 参考スコア(独自算出の注目度): 6.68999525326685
- License:
- Abstract: Learning from noisy labels (LNL) aims to train high-performance deep models using noisy datasets. Meta learning based label correction methods have demonstrated remarkable performance in LNL by designing various meta label rectification tasks. However, extra clean validation set is a prerequisite for these methods to perform label correction, requiring extra labor and greatly limiting their practicality. To tackle this issue, we propose a novel noisy meta label correction framework STCT, which counterintuitively uses noisy data to correct label noise, borrowing the spirit in the saying ``Set a Thief to Catch a Thief''. The core idea of STCT is to leverage noisy data which is i.i.d. with the training data as a validation set to evaluate model performance and perform label correction in a meta learning framework, eliminating the need for extra clean data. By decoupling the complex bi-level optimization in meta learning into representation learning and label correction, STCT is solved through an alternating training strategy between noisy meta correction and semi-supervised representation learning. Extensive experiments on synthetic and real-world datasets demonstrate the outstanding performance of STCT, particularly in high noise rate scenarios. STCT achieves 96.9% label correction and 95.2% classification performance on CIFAR-10 with 80% symmetric noise, significantly surpassing the current state-of-the-art.
- Abstract(参考訳): ノイズラベル(LNL)からの学習は、ノイズデータセットを使用して高性能なディープモデルをトレーニングすることを目的としている。
メタ学習に基づくラベル補正手法は,様々なメタラベル修正タスクを設計することにより,LNLにおいて顕著な性能を示した。
しかし、これらの手法がラベルの修正を行い、余分な労力を要し、実用性を大幅に制限するために必要な、余分なクリーンな検証セットが必須条件である。
この問題に対処するために, ノイズを補正するためにノイズデータを用いた新しい雑音付きメタラベル補正フレームワークSTCTを提案する。
STCTの中核となる考え方は、トレーニングデータを検証セットとして利用してモデル性能を評価し、メタラーニングフレームワークでラベル補正を行い、余分なクリーンなデータを必要としない、ノイズの多いデータを活用することである。
メタ学習における複雑な二段階最適化を表現学習とラベル修正に分離することにより、STCTはノイズのあるメタ修正と半教師付き表現学習の交互学習戦略により解決される。
合成および実世界のデータセットに対する大規模な実験はSTCTの優れた性能を示しており、特に高ノイズ率のシナリオでは顕著である。
STCTは96.9%のラベル修正と95.2%の分類性能をCIFAR-10で達成し、80%の対称ノイズで現在の最先端をはるかに上回っている。
関連論文リスト
- Efficient Adaptive Label Refinement for Label Noise Learning [14.617885790129336]
本稿では,不適切なラベルを回避し,クリーンなサンプルを徹底的に学習するための適応ラベル精製(ALR)を提案する。
ALRは単純で効率的であり、ノイズや補助的なデータセットに関する事前の知識を必要としない。
人工ラベルノイズ付きベンチマークデータセット(CIFAR-10/100)と固有ノイズ付き実世界のデータセット(ANIMAL-10N, Clothing1M, WebVision)を用いて、ALRの有効性を検証する。
論文 参考訳(メタデータ) (2025-02-01T09:58:08Z) - GCI-ViTAL: Gradual Confidence Improvement with Vision Transformers for Active Learning on Label Noise [1.603727941931813]
本研究では,CIFAR10,CIFAR100,Food101,Chest X線データセットのAL手法を比較し,画像分類タスクに焦点を当てた。
本稿では,ノイズのラベル付けに頑健な新しいディープラーニングアルゴリズムGCI-ViTALを提案する。
論文 参考訳(メタデータ) (2024-11-08T19:59:40Z) - BatMan-CLR: Making Few-shots Meta-Learners Resilient Against Label Noise [5.67944073225624]
本稿では,ラベルノイズのレベル変化がメタラーナーの性能に及ぼす影響を初めて解析する。
メタトレーニングがラベルノイズの影響を受ければ,OmniglotおよびCifarFSデータセット上でReptile,iMAML,foMAMLの精度が最大42%低下することを示す。
そこで本研究では,ノイズの多い教師付き学習者から半教師付き学習者へ変換する2つのサンプリング手法,すなわち,多様体(Man)とバッチ多様体(BatMan)を提案する。
論文 参考訳(メタデータ) (2023-09-12T08:30:35Z) - Enhanced Meta Label Correction for Coping with Label Corruption [3.6804038214708577]
本稿では,雑音ラベル問題を用いた学習のための拡張メタラベル補正手法を提案する。
TraditionalCは従来のアプローチより優れており、すべての標準ベンチマークで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-05-22T12:11:07Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Robust Meta-learning with Sampling Noise and Label Noise via
Eigen-Reptile [78.1212767880785]
Meta-learnerは、利用可能なサンプルがわずかしかないため、過度に適合する傾向がある。
ノイズの多いラベルでデータを扱う場合、メタラーナーはラベルノイズに対して非常に敏感になる可能性がある。
本稿では,タスク固有のパラメータの主要な方向でメタパラメータを更新するEigen-Reptile(ER)を提案する。
論文 参考訳(メタデータ) (2022-06-04T08:48:02Z) - Learning with Noisy Labels Revisited: A Study Using Real-World Human
Annotations [54.400167806154535]
ノイズラベルを用いた学習に関する既存の研究は、主に合成ラベルノイズに焦点を当てている。
本研究は2つの新しいベンチマークデータセット(CIFAR-10N, CIFAR-100N)を示す。
実世界のノイズラベルは古典的に採用されたクラス依存のラベルではなく、インスタンス依存のパターンに従うことを示す。
論文 参考訳(メタデータ) (2021-10-22T22:42:11Z) - Training Classifiers that are Universally Robust to All Label Noise
Levels [91.13870793906968]
ディープニューラルネットワークは、ラベルノイズの存在下で過度に適合する傾向がある。
ポジティヴ・アンラベルラーニングの新たなサブカテゴリを取り入れた蒸留ベースのフレームワークを提案する。
我々の枠組みは概して中~高騒音レベルにおいて優れています。
論文 参考訳(メタデータ) (2021-05-27T13:49:31Z) - Multi-Objective Interpolation Training for Robustness to Label Noise [17.264550056296915]
標準教師付きコントラスト学習はラベル雑音の存在下で劣化することを示す。
コントラスト学習により学習したロバストな特徴表現を利用する新しいラベルノイズ検出手法を提案する。
合成および実世界のノイズベンチマークの実験は、MOIT/MOIT+が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2020-12-08T15:01:54Z) - Learning to Purify Noisy Labels via Meta Soft Label Corrector [49.92310583232323]
最近のディープニューラルネットワーク(DNN)は、ノイズラベルによるバイアス付きトレーニングデータに容易に適合する。
ラベル修正戦略はこの問題を軽減するために一般的に用いられる。
メタ学習モデルを提案する。
論文 参考訳(メタデータ) (2020-08-03T03:25:17Z) - Meta Transition Adaptation for Robust Deep Learning with Noisy Labels [61.8970957519509]
本研究では,新しいメタ遷移学習戦略を提案する。
具体的には、クリーンなラベル付きメタデータの小さなセットのサウンドガイダンスにより、ノイズ遷移行列と分類器パラメータを相互に改善することができる。
本手法は, 従来技術よりも頑健な性能で, 遷移行列をより正確に抽出することができる。
論文 参考訳(メタデータ) (2020-06-10T07:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。