論文の概要: Robustness of Accuracy Metric and its Inspirations in Learning with
Noisy Labels
- arxiv url: http://arxiv.org/abs/2012.04193v1
- Date: Tue, 8 Dec 2020 03:37:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:05:37.956464
- Title: Robustness of Accuracy Metric and its Inspirations in Learning with
Noisy Labels
- Title(参考訳): 雑音ラベル学習における精度指標のロバスト性とそのインスピレーション
- Authors: Pengfei Chen, Junjie Ye, Guangyong Chen, Jingwei Zhao, Pheng-Ann Heng
- Abstract要約: 十分な数の雑音サンプルに対してトレーニング精度を最大化すると,ほぼ最適な分類器が得られることを示す。
検証のために、ノイズの多い検証セットが信頼できることを証明し、モデル選択のクリティカルな要求に対処する。
理論結果に動機づけられて,ノイズラベルをトレーニングしたモデルの特徴付けを行い,ノイズ検証セットの有用性を検証する。
- 参考スコア(独自算出の注目度): 51.66448070984615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For multi-class classification under class-conditional label noise, we prove
that the accuracy metric itself can be robust. We concretize this finding's
inspiration in two essential aspects: training and validation, with which we
address critical issues in learning with noisy labels. For training, we show
that maximizing training accuracy on sufficiently many noisy samples yields an
approximately optimal classifier. For validation, we prove that a noisy
validation set is reliable, addressing the critical demand of model selection
in scenarios like hyperparameter-tuning and early stopping. Previously, model
selection using noisy validation samples has not been theoretically justified.
We verify our theoretical results and additional claims with extensive
experiments. We show characterizations of models trained with noisy labels,
motivated by our theoretical results, and verify the utility of a noisy
validation set by showing the impressive performance of a framework termed
noisy best teacher and student (NTS). Our code is released.
- Abstract(参考訳): クラス条件ラベル雑音下でのマルチクラス分類では,精度指標自体が頑健であることが証明される。
我々は、この発見のインスピレーションを、トレーニングと検証の2つの重要な側面で強化し、ノイズラベルによる学習において重要な問題に対処する。
トレーニングでは,十分な数のノイズサンプルに対するトレーニング精度を最大化することで,ほぼ最適な分類器が得られることを示す。
検証のために、ハイパーパラメータチューニングや早期停止といったシナリオにおけるモデル選択のクリティカルな要求に対処するため、ノイズの多い検証セットが信頼できることを証明します。
これまで、ノイズ検証サンプルを用いたモデル選択は理論的に正当化されていない。
理論結果と追加の主張を広範な実験で検証する。
理論結果に動機づけられて,ノイズラベルをトレーニングしたモデルの特徴を提示し,雑音教師・生徒(nts)と呼ばれる枠組みの印象的な性能を示すことにより,雑音検証セットの有用性を検証する。
私たちのコードはリリースされます。
関連論文リスト
- Foster Adaptivity and Balance in Learning with Noisy Labels [26.309508654960354]
我々はtextbfSelf-adaptivtextbfE とクラスバランスtextbfD 方式でラベルノイズに対処するための textbfSED という新しい手法を提案する。
平均教師モデルは、ノイズの多いサンプルのラベルを修正するために使用される。
また,検出した雑音に異なる重みを割り当てる自己適応型およびクラスバランスのサンプル再重み付け機構を提案する。
論文 参考訳(メタデータ) (2024-07-03T03:10:24Z) - Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - Learning to Detect Noisy Labels Using Model-Based Features [16.681748918518075]
Select-Enhanced Noisy label Training (SENT)を提案する。
SENTは、データ駆動の柔軟性を保ちながら、メタ学習に依存しない。
自己学習とラベルの破損の設定の下で、強力なベースラインよりもパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2022-12-28T10:12:13Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Label Noise-Robust Learning using a Confidence-Based Sieving Strategy [15.997774467236352]
ラベルノイズを伴うタスクの学習では、オーバーフィッティングに対するモデルの堅牢性を改善することが重要な課題である。
サンプルをノイズのあるラベルで識別し、モデルを学習するのを防ぐことは、この課題に対処するための有望なアプローチである。
本研究では, 信頼度誤差と呼ばれる新しい判別基準と, クリーンサンプルとノイズサンプルを効果的に識別するためのCONFESと呼ばれるシービング戦略を提案する。
論文 参考訳(メタデータ) (2022-10-11T10:47:28Z) - Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels [87.48541631675889]
本稿では,2段階のクリーンサンプル識別手法を提案する。
まず,クリーンサンプルの早期同定にクラスレベルの特徴クラスタリング手法を用いる。
次に, 基底真理クラス境界に近い残余のクリーンサンプルについて, 一貫性に基づく新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-07-29T04:54:57Z) - Constrained Instance and Class Reweighting for Robust Learning under
Label Noise [20.30785186456126]
本稿では,個々のインスタンスやクラスラベルに重みを割り当てることを目的として,ラベルノイズに対処する手法を提案する。
本手法は,これらの重み付けに対して単純な閉形式更新をもたらす制約付き最適化問題のクラスを定式化することによって機能する。
提案手法を複数のベンチマークデータセット上で評価し,ラベルノイズの有無でかなりの性能向上を観測した。
論文 参考訳(メタデータ) (2021-11-09T21:37:53Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Learning from Noisy Labels for Entity-Centric Information Extraction [17.50856935207308]
エンティティ中心の情報抽出のための単純な共正規化フレームワークを提案する。
これらのモデルはタスク固有の損失と共同最適化され、同様の予測を生成するために正規化される。
結局のところ、トレーニングされたモデルのいずれかを推論に利用できます。
論文 参考訳(メタデータ) (2021-04-17T22:49:12Z) - Noisy Self-Knowledge Distillation for Text Summarization [83.49809205891496]
我々は, テキスト要約に自己知識蒸留を適用し, 最大習熟時の問題を緩和できると考えている。
学生要約モデルは,学習の正規化を支援するスムーズなラベルを生成する教師の指導によって訓練される。
筆者らは,3つのベンチマークを用いて,事前学習と非事前学習の両方のパフォーマンス向上を実証した。
論文 参考訳(メタデータ) (2020-09-15T12:53:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。