論文の概要: BadLabel: A Robust Perspective on Evaluating and Enhancing Label-noise
Learning
- arxiv url: http://arxiv.org/abs/2305.18377v2
- Date: Mon, 12 Feb 2024 12:06:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 00:52:30.137997
- Title: BadLabel: A Robust Perspective on Evaluating and Enhancing Label-noise
Learning
- Title(参考訳): BadLabel: ラベルノイズ学習の評価と改善に関するロバストな視点
- Authors: Jingfeng Zhang, Bo Song, Haohan Wang, Bo Han, Tongliang Liu, Lei Liu,
Masashi Sugiyama
- Abstract要約: 我々はBadLabelと呼ばれる新しいラベルノイズタイプを導入し、既存のLNLアルゴリズムの性能を大幅に劣化させることができる。
BadLabelは、標準分類に対するラベルフライング攻撃に基づいて開発されている。
そこで本稿では, 各エポックにおいてラベルを逆向きに摂動させ, クリーンかつノイズの多いラベルの損失値を再び識別可能にする頑健なLNL法を提案する。
- 参考スコア(独自算出の注目度): 113.8799653759137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Label-noise learning (LNL) aims to increase the model's generalization given
training data with noisy labels. To facilitate practical LNL algorithms,
researchers have proposed different label noise types, ranging from
class-conditional to instance-dependent noises. In this paper, we introduce a
novel label noise type called BadLabel, which can significantly degrade the
performance of existing LNL algorithms by a large margin. BadLabel is crafted
based on the label-flipping attack against standard classification, where
specific samples are selected and their labels are flipped to other labels so
that the loss values of clean and noisy labels become indistinguishable. To
address the challenge posed by BadLabel, we further propose a robust LNL method
that perturbs the labels in an adversarial manner at each epoch to make the
loss values of clean and noisy labels again distinguishable. Once we select a
small set of (mostly) clean labeled data, we can apply the techniques of
semi-supervised learning to train the model accurately. Empirically, our
experimental results demonstrate that existing LNL algorithms are vulnerable to
the newly introduced BadLabel noise type, while our proposed robust LNL method
can effectively improve the generalization performance of the model under
various types of label noise. The new dataset of noisy labels and the source
codes of robust LNL algorithms are available at
https://github.com/zjfheart/BadLabels.
- Abstract(参考訳): ラベルノイズ学習(LNL)は、ノイズラベルを用いたトレーニングデータに基づいてモデルの一般化を促進することを目的としている。
実用的なLNLアルゴリズムを実現するために、研究者はクラス条件からインスタンス依存ノイズまで様々なラベルノイズタイプを提案している。
本稿では,既存のlnlアルゴリズムの性能を大きなマージンで著しく低下させることができるbadlabelというラベルノイズ型を提案する。
badlabelは、特定のサンプルを選択してラベルを他のラベルにフリップすることで、クリーンでノイズの多いラベルの損失値が区別不能になるような、標準分類に対するラベルフリッピング攻撃に基づいて作成される。
さらに,badlabelが提示する課題に対処するために,各時代においてラベルを逆さまに摂動させるロバストなlnl法を提案し,クリーンラベルとノイズラベルの損失値を再度識別する。
ラベル付きデータの小さなセットを一度選択すれば、セミ教師付き学習のテクニックを適用してモデルを正確に訓練することができる。
実験の結果,既存のlnlアルゴリズムが新たに導入されたbadlabelノイズタイプに対して脆弱であることを実証し,提案するロバストなlnl手法は様々なラベルノイズ下でのモデルの一般化性能を効果的に向上できることを示した。
ノイズの多いラベルの新しいデータセットとロバストなLNLアルゴリズムのソースコードはhttps://github.com/zjfheart/BadLabelsで入手できる。
関連論文リスト
- Pseudo-labelling meets Label Smoothing for Noisy Partial Label Learning [8.387189407144403]
部分ラベル学習(Partial label learning、PLL)は、各トレーニングインスタンスが候補ラベル(Partial label)のセットとペアリングされる弱い教師付き学習パラダイムである。
NPLLはこの制約を緩和し、一部の部分ラベルが真のラベルを含まないようにし、問題の実用性を高める。
本稿では,近傍の重み付けアルゴリズムを用いて,雑音のある部分ラベルを利用して画像に擬似ラベルを割り当てる最小限のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T13:32:47Z) - Resist Label Noise with PGM for Graph Neural Networks [4.566850249315913]
本稿では,新しいグラフィカル確率モデル (PGM) に基づくフレームワーク LNP を提案する。
ノイズの多いラベルセットとクリーンなラベルセットが与えられた場合、私たちのゴールはクリーンなセット内のラベルの可能性を最大化することです。
LNPは高騒音環境下でのインスピレーション性能に寄与することを示す。
論文 参考訳(メタデータ) (2023-11-03T02:47:06Z) - Partial Label Supervision for Agnostic Generative Noisy Label Learning [18.29334728940232]
ノイズラベル学習は差別的アプローチと生成的アプローチの両方に取り組んできた。
本稿では,これらの課題に対処する生成ノイズラベル学習のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-02T14:48:25Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Towards the Identifiability in Noisy Label Learning: A Multinomial
Mixture Approach [37.32107678838193]
雑音ラベル(LNL)からの学習は、ディープラーニングにおいて重要な役割を果たす。
最も有望なLNLメソッドは、ノイズの多いアノテーションでデータセットからクリーンなラベルサンプルを特定することに依存する。
そこで本研究では,最寄りの住民を対象に,雑音ラベルの分布を推定することで,新たな雑音ラベルを自動的に生成する手法を提案する。
論文 参考訳(メタデータ) (2023-01-04T01:54:33Z) - Transductive CLIP with Class-Conditional Contrastive Learning [68.51078382124331]
雑音ラベル付き分類ネットワークをスクラッチから学習するための新しいフレームワークであるTransductive CLIPを提案する。
擬似ラベルへの依存を軽減するために,クラス条件のコントラスト学習機構を提案する。
アンサンブルラベルは、ノイズラベル付きディープニューラルネットワークのトレーニングを安定化するための擬似ラベル更新戦略として採用されている。
論文 参考訳(メタデータ) (2022-06-13T14:04:57Z) - Label Noise-Resistant Mean Teaching for Weakly Supervised Fake News
Detection [93.6222609806278]
本稿では,弱い教師付き偽ニュース検出のためのラベル雑音耐性平均教育手法 (LNMT) を提案する。
LNMTは、未ラベルのニュースとユーザのフィードバックコメントを活用して、トレーニングデータの量を増やす。
LNMTはラベル伝搬とラベル信頼性推定を備えた平均教師フレームワークを確立する。
論文 参考訳(メタデータ) (2022-06-10T16:01:58Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Label Noise Types and Their Effects on Deep Learning [0.0]
本研究では,異なる種類のラベルノイズが学習に与える影響を詳細に分析する。
本稿では,特徴に依存したラベルノイズを生成する汎用フレームワークを提案する。
他の研究者がノイズの多いラベルでアルゴリズムをテストしやすいように、最も一般的に使用されているベンチマークデータセットに対して、破損したラベルを共有します。
論文 参考訳(メタデータ) (2020-03-23T18:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。