論文の概要: Late Stopping: Avoiding Confidently Learning from Mislabeled Examples
- arxiv url: http://arxiv.org/abs/2308.13862v1
- Date: Sat, 26 Aug 2023 12:43:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 18:39:34.178812
- Title: Late Stopping: Avoiding Confidently Learning from Mislabeled Examples
- Title(参考訳): 遅い停止: 間違った例から信頼できる学習を避ける
- Authors: Suqin Yuan, Lei Feng, Tongliang Liu
- Abstract要約: そこで本研究では,DNNの長期学習プロセスを通じて,本質的な頑健な学習能力を生かした新しいフレームワークであるLatlas Stoppingを提案する。
誤ラベルとクリーンな例は、それらが一貫して正しく分類されるために必要なエポックの数に相違があることを実証的に観察する。
ベンチマークシミュレーションと実世界のノイズデータセットによる実験結果から,提案手法は最先端の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 61.00103151680946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sample selection is a prevalent method in learning with noisy labels, where
small-loss data are typically considered as correctly labeled data. However,
this method may not effectively identify clean hard examples with large losses,
which are critical for achieving the model's close-to-optimal generalization
performance. In this paper, we propose a new framework, Late Stopping, which
leverages the intrinsic robust learning ability of DNNs through a prolonged
training process. Specifically, Late Stopping gradually shrinks the noisy
dataset by removing high-probability mislabeled examples while retaining the
majority of clean hard examples in the training set throughout the learning
process. We empirically observe that mislabeled and clean examples exhibit
differences in the number of epochs required for them to be consistently and
correctly classified, and thus high-probability mislabeled examples can be
removed. Experimental results on benchmark-simulated and real-world noisy
datasets demonstrate that the proposed method outperforms state-of-the-art
counterparts.
- Abstract(参考訳): サンプル選択はノイズラベルを用いた学習において一般的な手法であり、小さな損失データは通常、正しくラベル付けされたデータと見なされる。
しかし、この手法は、モデルに近い最適一般化性能を達成する上で重要な、大きな損失を伴うクリーン・ハード・サンプルを効果的に識別することができない。
本稿では,DNNの長期学習プロセスを通じて本質的な頑健な学習能力を生かした新しいフレームワークである遅延停止を提案する。
具体的には、学習過程を通じて学習セットのクリーンなハードサンプルの大部分を保持しながら、高確率の誤ラベル例を取り除き、ノイズの多いデータセットを徐々に縮小する。
我々は,誤ラベルと清潔な例が,それらが一貫して正しく分類されるために必要なエポック数の差を示し,高い確率の誤ラベル例を取り除くことができることを実証的に観察する。
ベンチマークシミュレーションと実世界のノイズデータセットによる実験結果から,提案手法は最先端の手法よりも優れていることが示された。
関連論文リスト
- Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - Robust Positive-Unlabeled Learning via Noise Negative Sample
Self-correction [48.929877651182885]
正および未ラベルのデータから学ぶことは、文学における正の未ラベル(PU)学習として知られている。
本研究では,人間の学習の性質を動機とした学習戦略を取り入れた,新しい堅牢なPU学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-01T04:34:52Z) - Learning with Noisy Labels by Adaptive Gradient-Based Outlier Removal [4.71154003227418]
本稿では,Adaptive GRAdient-based outlier removal を用いて,雑音のあるラベルで学習する新しい手法 AGRAを提案する。
本手法は,サンプルの集合勾配と個々のサンプル勾配を比較して,対応するサンプルがモデルに役立つかどうかを動的に決定する。
いくつかのデータセットに対する広範囲な評価はAGRAの有効性を示している。
論文 参考訳(メタデータ) (2023-06-07T15:10:01Z) - Temporal Output Discrepancy for Loss Estimation-based Active Learning [65.93767110342502]
ラベルのないサンプルが高損失を伴っていると信じられている場合に,データアノテーションのオラクルに問い合わせる,新しいディープラーニングアプローチを提案する。
本手法は,画像分類やセマンティックセグメンテーションタスクにおける最先端の能動学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-12-20T19:29:37Z) - Split-PU: Hardness-aware Training Strategy for Positive-Unlabeled
Learning [42.26185670834855]
Positive-Unlabeled (PU) 学習は、稀な正のサンプルと豊富な未ラベルサンプルを持つモデルを学ぶことを目的としている。
本稿では、新しいトレーニングパイプラインを用いて、一般的に使われているnnPUの改善に焦点を当てる。
論文 参考訳(メタデータ) (2022-11-30T05:48:31Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Robust and On-the-fly Dataset Denoising for Image Classification [72.10311040730815]
On-the-fly Data Denoising (ODD)は、間違ったラベルの例に対して堅牢だが、通常のトレーニングと比べて計算オーバーヘッドはほぼゼロである。
ODDはWebVisionやClothing1Mといった現実世界のデータセットを含む、幅広いデータセットで最先端の結果を達成することができる。
論文 参考訳(メタデータ) (2020-03-24T03:59:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。