論文の概要: Open-set Label Noise Can Improve Robustness Against Inherent Label Noise
- arxiv url: http://arxiv.org/abs/2106.10891v1
- Date: Mon, 21 Jun 2021 07:15:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:55:31.510685
- Title: Open-set Label Noise Can Improve Robustness Against Inherent Label Noise
- Title(参考訳): オープンセットラベルノイズは固有ラベルノイズに対するロバスト性を改善する
- Authors: Hongxin Wei, Lue Tao, Renchunzi Xie, Bo An
- Abstract要約: オープンセットノイズラベルは非毒性であり, 固有ノイズラベルに対するロバスト性にも寄与することを示した。
本研究では,動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することで,シンプルかつ効果的な正規化を提案する。
- 参考スコア(独自算出の注目度): 27.885927200376386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning with noisy labels is a practically challenging problem in weakly
supervised learning. In the existing literature, open-set noises are always
considered to be poisonous for generalization, similar to closed-set noises. In
this paper, we empirically show that open-set noisy labels can be non-toxic and
even benefit the robustness against inherent noisy labels. Inspired by the
observations, we propose a simple yet effective regularization by introducing
Open-set samples with Dynamic Noisy Labels (ODNL) into training. With ODNL, the
extra capacity of the neural network can be largely consumed in a way that does
not interfere with learning patterns from clean data. Through the lens of SGD
noise, we show that the noises induced by our method are random-direction,
conflict-free and biased, which may help the model converge to a flat minimum
with superior stability and enforce the model to produce conservative
predictions on Out-of-Distribution instances. Extensive experimental results on
benchmark datasets with various types of noisy labels demonstrate that the
proposed method not only enhances the performance of many existing robust
algorithms but also achieves significant improvement on Out-of-Distribution
detection tasks even in the label noise setting.
- Abstract(参考訳): 雑音ラベルによる学習は、弱い教師付き学習において事実上困難な問題である。
既存の文献では、閉集合ノイズと同様に、開集合ノイズは一般化には有毒であると考えられている。
本稿では, オープンセットノイズラベルが非毒性であり, 固有ノイズラベルに対するロバスト性にもメリットがあることを実証的に示す。
本研究では, 動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することにより, 簡便かつ効果的な正則化を提案する。
ODNLでは、ニューラルネットワークの余分な容量を、クリーンなデータからの学習パターンに干渉しない方法で大きく消費することができる。
sgdノイズのレンズを通して, 本手法によるノイズはランダム指向性, コンフリクトフリー, バイアスドであり, モデルがより安定な平準に収束し, 分散インスタンス上で保守的予測を強制するのに役立つことを示す。
各種雑音ラベルを用いたベンチマークデータセットの広範な実験結果から,提案手法が既存のロバストアルゴリズムの性能を向上させるだけでなく,ラベルノイズ設定においても分散検出タスクの大幅な改善を実現することが示された。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - NoisywikiHow: A Benchmark for Learning with Real-world Noisy Labels in
Natural Language Processing [26.678589684142548]
実世界の大規模なデータセットには、必然的にラベルノイズが伴う。
ディープモデルはノイズの多いラベルに徐々に適合し、一般化性能を低下させる。
ラベルノイズの影響を軽減するため,雑音ラベル法(LNL)による学習は,より優れた一般化性能を実現するために設計されている。
論文 参考訳(メタデータ) (2023-05-18T05:01:04Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Learning from Noisy Labels with Coarse-to-Fine Sample Credibility
Modeling [22.62790706276081]
ノイズの多いラベルでディープニューラルネットワーク(DNN)を訓練することは事実上難しい。
従来の取り組みでは、統合されたデノナイジングフローで部分データや完全なデータを扱う傾向があります。
本研究では,ノイズの多いデータを分割・分散的に処理するために,CREMAと呼ばれる粗大な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-23T02:06:38Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Learning with Noisy Labels Revisited: A Study Using Real-World Human
Annotations [54.400167806154535]
ノイズラベルを用いた学習に関する既存の研究は、主に合成ラベルノイズに焦点を当てている。
本研究は2つの新しいベンチマークデータセット(CIFAR-10N, CIFAR-100N)を示す。
実世界のノイズラベルは古典的に採用されたクラス依存のラベルではなく、インスタンス依存のパターンに従うことを示す。
論文 参考訳(メタデータ) (2021-10-22T22:42:11Z) - Robustness and reliability when training with noisy labels [12.688634089849023]
教師付き学習のためのデータの遅延は、コストと時間を要する可能性がある。
ディープニューラルネットワークは、ランダムラベルの適合、正規化、ロバストな損失関数の使用を証明している。
論文 参考訳(メタデータ) (2021-10-07T10:30:20Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。