論文の概要: Asymmetric error control under imperfect supervision: a
label-noise-adjusted Neyman-Pearson umbrella algorithm
- arxiv url: http://arxiv.org/abs/2112.00314v1
- Date: Wed, 1 Dec 2021 07:10:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 13:34:38.672630
- Title: Asymmetric error control under imperfect supervision: a
label-noise-adjusted Neyman-Pearson umbrella algorithm
- Title(参考訳): 不完全監督下の非対称誤差制御-ラベルノイズ調整ニーマン・ピアソン傘アルゴリズム
- Authors: Shunan Yao, Bradley Rava, Xin Tong, Gareth James
- Abstract要約: Neyman-Pearson(NP)分類パラダイムは、望ましいレベルでより厳しいタイプのエラーを制約する。
NPパラダイムに基づくトレーニングラベルノイズに対して,ほとんどの最先端分類手法を適応する最初の理論支援アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 9.680436421852768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Label noise in data has long been an important problem in supervised learning
applications as it affects the effectiveness of many widely used classification
methods. Recently, important real-world applications, such as medical diagnosis
and cybersecurity, have generated renewed interest in the Neyman-Pearson (NP)
classification paradigm, which constrains the more severe type of error (e.g.,
the type I error) under a preferred level while minimizing the other (e.g., the
type II error). However, there has been little research on the NP paradigm
under label noise. It is somewhat surprising that even when common NP
classifiers ignore the label noise in the training stage, they are still able
to control the type I error with high probability. However, the price they pay
is excessive conservativeness of the type I error and hence a significant drop
in power (i.e., $1 - $ type II error). Assuming that domain experts provide
lower bounds on the corruption severity, we propose the first theory-backed
algorithm that adapts most state-of-the-art classification methods to the
training label noise under the NP paradigm. The resulting classifiers not only
control the type I error with high probability under the desired level but also
improve power.
- Abstract(参考訳): データ内のラベルノイズは、多くの広く使われている分類手法の有効性に影響を与えるため、教師付き学習アプリケーションにおいて長い間重要な問題となっている。
近年、医療診断やサイバーセキュリティといった重要な現実世界の応用は、より厳しいタイプのエラー(例:I型エラー)を優先レベルで制限し、他方を最小化(例:II型エラー)するNeyman-Pearson(NP)分類パラダイムに新たな関心を生んでいる。
しかし、ラベルノイズ下でのNPパラダイムについてはほとんど研究されていない。
一般的なNP分類器がトレーニング段階でラベルノイズを無視したとしても、高い確率でI型エラーを制御できることは驚くべきことである。
しかし、それらが支払う価格はI型エラーの過度な保守性であり、従ってパワーが大幅に低下する(すなわち、1-$タイプII型エラー)。
ドメインエキスパートが汚職重大度に低い限界を与えると仮定し,NPパラダイムに基づくトレーニングラベルノイズにほとんどの最先端の分類手法を適応させる理論支援アルゴリズムを提案する。
結果の分類器は、I型エラーを所望のレベルで高い確率で制御するだけでなく、パワーも向上する。
関連論文リスト
- Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Test-Time Amendment with a Coarse Classifier for Fine-Grained
Classification [10.719054378755981]
階層的アンサンブル(HiE)と呼ばれるポストホック補正のための新しいアプローチを提案する。
HiEはラベル階層を利用して、粗い粒度予測を用いてテスト時のきめ細かい分類の性能を向上させる。
提案手法は,細粒度クラスにおいてトレーニングデータが減少するにつれて,誤りの重大度が著しく低下する一方で,トップ1の精度において顕著な向上をもたらす。
論文 参考訳(メタデータ) (2023-02-01T10:55:27Z) - Hierarchical Neyman-Pearson Classification for Prioritizing Severe
Disease Categories in COVID-19 Patient Data [14.74172876249796]
新型コロナウイルスの重症度は、無症状から入院の要求まで幅広い。
より厳しいクラスの識別を優先し、"アンダークラス化"エラーを制御することは有益である。
本稿では,階層型NP(H-NP)フレームワークと,非分類誤差を高い確率で制御する傘アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-01T06:11:30Z) - Do We Need to Penalize Variance of Losses for Learning with Label Noise? [91.38888889609002]
ノイズラベルを用いた学習では,差分を増大させる必要がある。
ラベルノイズ遷移行列を利用することで、正規化器は損失の分散を低減することができる。
実験的に,損失の分散を増大させることにより,合成データセットと実世界のデータセットのベースラインの一般化能力を大幅に向上させる。
論文 参考訳(メタデータ) (2022-01-30T06:19:08Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - CCMN: A General Framework for Learning with Class-Conditional
Multi-Label Noise [40.46921277898713]
クラス条件ノイズは一般的に機械学習タスクに存在し、クラスラベルは基底値に応じて確率で破壊される。
本稿では,この問題をCCMN(Class-Conditional Multi-label Noise)を用いた学習の一般的な枠組みとして形式化する。
我々は,ccmn問題を解くための誤差境界を持つ2つの非バイアス推定器を確立し,これらが一般的なマルチラベル損失関数と一致することを証明した。
論文 参考訳(メタデータ) (2021-05-16T03:24:15Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Bridging Cost-sensitive and Neyman-Pearson Paradigms for Asymmetric
Binary Classification [12.083020037901651]
コスト感受性とノイマン・ピアソンのパラダイムの方法論的関連性を検討する。
2つのパラダイムを橋渡しするTUBE-CSアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-29T21:40:52Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Error-Bounded Correction of Noisy Labels [17.510654621245656]
ノイズのある分類器の予測は、トレーニングデータのラベルがクリーンかどうかを示す良い指標であることを示す。
理論的結果に基づいて,雑音分類器の予測に基づいてラベルを補正する新しいアルゴリズムを提案する。
ラベル補正アルゴリズムをディープニューラルネットワークのトレーニングや,複数の公開データセット上で優れたテスト性能を実現するトレーニングモデルに組み込む。
論文 参考訳(メタデータ) (2020-11-19T19:23:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。