論文の概要: Learning with Feature Dependent Label Noise: a Progressive Approach
- arxiv url: http://arxiv.org/abs/2103.07756v1
- Date: Sat, 13 Mar 2021 17:34:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 10:01:37.229863
- Title: Learning with Feature Dependent Label Noise: a Progressive Approach
- Title(参考訳): 特徴依存ラベルノイズによる学習の進歩的アプローチ
- Authors: Yikai Zhang, Songzhu Zheng, Pengxiang Wu, Mayank Goswami, Chao Chen
- Abstract要約: 一般的なi.i.dよりもはるかに一般的である特徴依存ラベルノイズの新しいファミリーを提案する。
ラベルノイズ。
我々は、様々な(未知)ノイズパターンに対して、この戦略で訓練された分類器がベイズ分類器と一致するように収束することを示す理論的保証を提供する。
- 参考スコア(独自算出の注目度): 19.425199841491246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Label noise is frequently observed in real-world large-scale datasets. The
noise is introduced due to a variety of reasons; it is heterogeneous and
feature-dependent. Most existing approaches to handling noisy labels fall into
two categories: they either assume an ideal feature-independent noise, or
remain heuristic without theoretical guarantees. In this paper, we propose to
target a new family of feature-dependent label noise, which is much more
general than commonly used i.i.d. label noise and encompasses a broad spectrum
of noise patterns. Focusing on this general noise family, we propose a
progressive label correction algorithm that iteratively corrects labels and
refines the model. We provide theoretical guarantees showing that for a wide
variety of (unknown) noise patterns, a classifier trained with this strategy
converges to be consistent with the Bayes classifier. In experiments, our
method outperforms SOTA baselines and is robust to various noise types and
levels.
- Abstract(参考訳): ラベルノイズは、現実世界の大規模データセットで頻繁に観測される。
ノイズは様々な理由で導入され、不均一で特徴に依存している。
ノイズラベルを扱う既存のアプローチのほとんどは、理想的な機能非依存のノイズを仮定するか、理論的保証なしにヒューリスティックであるかの2つのカテゴリに分類される。
本稿では,一般的なi.i.d.よりもはるかに一般的な特徴依存ラベルノイズの新たなファミリーを対象とする。
ノイズをラベル付けし、幅広いノイズパターンを包含する。
本稿では,この一般ノイズファミリーに着目し,ラベルを反復的に修正し,モデルを洗練するプログレッシブラベル補正アルゴリズムを提案する。
我々は、様々な(未知)ノイズパターンに対して、この戦略で訓練された分類器がベイズ分類器と一致するように収束することを示す理論的保証を提供する。
実験では,sotaベースラインを上回り,様々なノイズタイプやレベルに対して頑健である。
関連論文リスト
- Handling Realistic Label Noise in BERT Text Classification [1.0515439489916731]
実ラベルノイズはランダムではなく、入力特徴や他のアノテータ固有の要因と相関することが多い。
これらのノイズの存在がBERT分類性能を著しく低下させることを示す。
論文 参考訳(メタデータ) (2023-05-23T18:30:31Z) - Rethinking the Value of Labels for Instance-Dependent Label Noise
Learning [43.481591776038144]
実世界のアプリケーションにおけるノイズの多いラベルは、しばしば真のラベルと機能の両方に依存します。
本研究では、ノイズ遷移行列を明示的にモデル化しない新しい深層生成モデルを用いて、インスタンス依存ラベルノイズに対処する。
提案アルゴリズムは,カジュアルな表現学習を活用し,データから高レベルのコンテンツとスタイルの潜伏要素を同時に識別する。
論文 参考訳(メタデータ) (2023-05-10T15:29:07Z) - Robustness to Label Noise Depends on the Shape of the Noise Distribution
in Feature Space [6.748225062396441]
騒音分布の規模と形状が後部確率に影響を及ぼすことを示す。
雑音分布が決定境界を目標とする場合、小さなノイズであっても、分類ロバスト性は低下しうることを示す。
論文 参考訳(メタデータ) (2022-06-02T15:41:59Z) - Learning with Noisy Labels Revisited: A Study Using Real-World Human
Annotations [54.400167806154535]
ノイズラベルを用いた学習に関する既存の研究は、主に合成ラベルノイズに焦点を当てている。
本研究は2つの新しいベンチマークデータセット(CIFAR-10N, CIFAR-100N)を示す。
実世界のノイズラベルは古典的に採用されたクラス依存のラベルではなく、インスタンス依存のパターンに従うことを示す。
論文 参考訳(メタデータ) (2021-10-22T22:42:11Z) - Rethinking Noisy Label Models: Labeler-Dependent Noise with Adversarial
Awareness [2.1930130356902207]
本稿では,複数のラベルに対してインスタンス依存ノイズを一般化するラベルノイズの原理モデルを提案する。
ラベラーに依存したモデルでは、ラベルノイズは善良なラベルの自然な誤りと悪質なアクターによって提供される敵対的なラベルの2つのモードの下に現れます。
実世界の環境で発生する可能性のあるラベルノイズをより正確に反映する2つの逆攻撃ベクトルを提案する。
論文 参考訳(メタデータ) (2021-05-28T19:58:18Z) - Training Classifiers that are Universally Robust to All Label Noise
Levels [91.13870793906968]
ディープニューラルネットワークは、ラベルノイズの存在下で過度に適合する傾向がある。
ポジティヴ・アンラベルラーニングの新たなサブカテゴリを取り入れた蒸留ベースのフレームワークを提案する。
我々の枠組みは概して中~高騒音レベルにおいて優れています。
論文 参考訳(メタデータ) (2021-05-27T13:49:31Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Extended T: Learning with Mixed Closed-set and Open-set Noisy Labels [86.5943044285146]
ラベルノイズ遷移行列$T$は、真のラベルがノイズのあるものへと反転する確率を反映する。
本稿では,閉集合と開集合の混在したラベル雑音下での学習に着目した。
本手法は,従来の最先端のラベル雑音学習法よりも頑健な性能を追求し,混合ラベル雑音をモデル化する。
論文 参考訳(メタデータ) (2020-12-02T02:42:45Z) - NoiseRank: Unsupervised Label Noise Reduction with Dependence Models [11.08987870095179]
マルコフランダム場(MRF)を用いた教師なしラベル雑音低減のためのノイズRankを提案する。
本研究では,データセットに誤ってラベル付けされたインスタンスの後方確率と,その推定確率に基づいてランク付けされたインスタンスを推定する依存性モデルを構築した。
NORankはFood101-N(20%ノイズ)の最先端分類を改善し、高雑音クローティング-1M(40%ノイズ)に有効である
論文 参考訳(メタデータ) (2020-03-15T01:10:25Z) - Confidence Scores Make Instance-dependent Label-noise Learning Possible [129.84497190791103]
ノイズのあるラベルで学習する際、そのラベルはノイズモデルと呼ばれる遷移分布に従ってランダムに他のクラスに移動することができる。
我々は、各インスタンスラベル対に信頼スコアを付与する、信頼スコア付きインスタンス依存ノイズ(CSIDN)を導入する。
信頼性スコアの助けを借りて、各インスタンスの遷移分布を推定できる。
論文 参考訳(メタデータ) (2020-01-11T16:15:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。