論文の概要: P-DIFF: Learning Classifier with Noisy Labels based on Probability
Difference Distributions
- arxiv url: http://arxiv.org/abs/2009.06382v2
- Date: Tue, 15 Sep 2020 07:28:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 12:34:48.240344
- Title: P-DIFF: Learning Classifier with Noisy Labels based on Probability
Difference Distributions
- Title(参考訳): P-DIFF:確率差分布に基づく雑音ラベル付き学習分類器
- Authors: Wei Hu, QiHao Zhao, Yangyu Huang and Fan Zhang
- Abstract要約: ディープニューラルネットワーク(DNN)は、高機能のため、ノイズラベルに容易に適合する。
本稿では,P-DIFFと呼ばれる,非常にシンプルで効果的なトレーニングパラダイムを提案する。
提案した確率差分布は、トレーニングサンプルがクリーンになる確率を暗黙的に反映し、トレーニングプロセス中に対応するサンプルを再重み付けするためにこの確率を用いる。
ベンチマークデータセットの実験では、P-DIFFは最先端のサンプル選択方法よりも優れていることが示されている。
- 参考スコア(独自算出の注目度): 14.715599342436441
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning deep neural network (DNN) classifier with noisy labels is a
challenging task because the DNN can easily over-fit on these noisy labels due
to its high capability. In this paper, we present a very simple but effective
training paradigm called P-DIFF, which can train DNN classifiers but obviously
alleviate the adverse impact of noisy labels. Our proposed probability
difference distribution implicitly reflects the probability of a training
sample to be clean, then this probability is employed to re-weight the
corresponding sample during the training process. P-DIFF can also achieve good
performance even without prior knowledge on the noise rate of training samples.
Experiments on benchmark datasets also demonstrate that P-DIFF is superior to
the state-of-the-art sample selection methods.
- Abstract(参考訳): ノイズラベル付きディープニューラルネットワーク(dnn)分類器の学習は、dnnが高機能であるため、これらのノイズラベルに簡単にオーバーフィットできるため、難しい課題である。
本稿では、DNN分類器を訓練するが、明らかにノイズラベルの悪影響を軽減できるP-DIFFという、非常に単純で効果的な訓練パラダイムを提案する。
提案する確率差分布は, トレーニングサンプルのクリーン化確率を暗黙的に反映し, この確率を用いてトレーニングプロセス中に対応するサンプルを再重み付けする。
P-DIFFは、トレーニングサンプルのノイズ率に関する事前知識がなくても、良好な性能が得られる。
ベンチマークデータセットの実験では、P-DIFFは最先端のサンプル選択方法よりも優れていることが示されている。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Dynamic Adaptive Threshold based Learning for Noisy Annotations Robust
Facial Expression Recognition [3.823356975862006]
ノイズの多いアノテーションを扱うための動的FER学習フレームワーク(DNFER)を提案する。
具体的には、DNFERは、選択されたクリーンサンプルを使用した教師ありトレーニングと、すべてのサンプルを使用した教師なし一貫性のあるトレーニングに基づいている。
我々は,RAFDB,FERPlus,SFEW,AffectNetなどの実雑音付きFERデータセットに対して,DNFERの堅牢性を示す。
論文 参考訳(メタデータ) (2022-08-22T12:02:41Z) - Identifying Hard Noise in Long-Tailed Sample Distribution [76.16113794808001]
NLT(Noisy Long-Tailed Classification)を紹介する。
ほとんどのノイズ除去法は、ハードノイズを特定するのに失敗する。
我々はH2E(Hard-to-Easy)と呼ばれる反復的な雑音学習フレームワークを設計する。
論文 参考訳(メタデータ) (2022-07-27T09:03:03Z) - Towards Harnessing Feature Embedding for Robust Learning with Noisy
Labels [44.133307197696446]
ディープニューラルネットワーク(DNN)の記憶効果は,近年のラベルノイズ学習法において重要な役割を担っている。
ラベルノイズを用いたディープラーニングのための新しい特徴埋め込み方式, LabEl Noise Dilution (LEND) を提案する。
論文 参考訳(メタデータ) (2022-06-27T02:45:09Z) - UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning [89.56465237941013]
UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
論文 参考訳(メタデータ) (2022-03-28T07:36:36Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。