論文の概要: Alleviating Noisy-label Effects in Image Classification via Probability
Transition Matrix
- arxiv url: http://arxiv.org/abs/2110.08866v1
- Date: Sun, 17 Oct 2021 17:01:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 17:25:52.369344
- Title: Alleviating Noisy-label Effects in Image Classification via Probability
Transition Matrix
- Title(参考訳): 確率遷移行列を用いた画像分類におけるノイズラベル効果の緩和
- Authors: Ziqi Zhang, Yuexiang Li, Hongxin Wei, Kai Ma, Tao Xu, Yefeng Zheng
- Abstract要約: ディープラーニングに基づく画像分類フレームワークは、しばしば、サーバ間変動に起因するノイズの多いラベル問題に悩まされる。
本稿では,ノイズ無視ブロック (NIB) と呼ばれるプラグインモジュールを提案する。
我々のNIBモジュールは、最先端の堅牢なトレーニング手法の性能を一貫して改善します。
- 参考スコア(独自算出の注目度): 30.532481130511137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep-learning-based image classification frameworks often suffer from the
noisy label problem caused by the inter-observer variation. Recent studies
employed learning-to-learn paradigms (e.g., Co-teaching and JoCoR) to filter
the samples with noisy labels from the training set. However, most of them use
a simple cross-entropy loss as the criterion for noisy label identification.
The hard samples, which are beneficial for classifier learning, are often
mistakenly treated as noises in such a setting since both the hard samples and
ones with noisy labels lead to a relatively larger loss value than the easy
cases. In this paper, we propose a plugin module, namely noise ignoring block
(NIB), consisting of a probability transition matrix and an inter-class
correlation (IC) loss, to separate the hard samples from the mislabeled ones,
and further boost the accuracy of image classification network trained with
noisy labels. Concretely, our IC loss is calculated as Kullback-Leibler
divergence between the network prediction and the accumulative soft label
generated by the probability transition matrix. Such that, with the lower value
of IC loss, the hard cases can be easily distinguished from mislabeled cases.
Extensive experiments are conducted on natural and medical image datasets
(CIFAR-10 and ISIC 2019). The experimental results show that our NIB module
consistently improves the performances of the state-of-the-art robust training
methods.
- Abstract(参考訳): ディープラーニングに基づく画像分類フレームワークは、しばしば、サーバ間変動に起因するノイズの多いラベル問題に悩まされる。
近年の研究では、学習から学習までのパラダイム(コティーチングやJoCoRなど)を用いて、トレーニングセットからノイズのあるラベルでサンプルをフィルタリングしている。
しかし,ほとんどの場合,ノイズラベル識別基準として単純なクロスエントロピー損失を用いる。
分類器学習に有益であるハードサンプルは、ハードサンプルとノイズラベルの両方が容易なケースよりも比較的大きな損失値をもたらすため、この設定では誤ってノイズとして扱われることが多い。
本稿では,ノイズ無視ブロック (NIB) と呼ばれる,確率遷移行列とクラス間相関 (IC) 損失からなるプラグインモジュールを提案する。
具体的には、ネットワーク予測と確率遷移行列によって生成された累積ソフトラベルとのクルバック・リーブラー分岐として、IC損失を算出する。
これにより、ic損失の値が低い場合には、誤記の場合と容易に区別することができる。
自然・医用画像データセット(CIFAR-10、ISIC 2019)について大規模な実験を行った。
実験の結果,NIBモジュールは最先端のロバストなトレーニング手法の性能を一貫して改善することがわかった。
関連論文リスト
- Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Multi-Label Noise Transition Matrix Estimation with Label Correlations:
Theory and Algorithm [73.94839250910977]
ノイズの多いマルチラベル学習は、大規模な正確なラベルの収集によって生じる課題により、注目を集めている。
遷移行列の導入は、マルチラベルノイズをモデル化し、統計的に一貫したアルゴリズムの開発に役立つ。
そこで本稿では, アンカーポイントを必要とせずに, ラベル相関を利用した新しい推定器を提案する。
論文 参考訳(メタデータ) (2023-09-22T08:35:38Z) - Category-Adaptive Label Discovery and Noise Rejection for Multi-label
Image Recognition with Partial Positive Labels [78.88007892742438]
部分正ラベル(MLR-PPL)を用いたマルチラベルモデルの訓練が注目されている。
これまでの研究では、未知のラベルを負とみなし、従来のMLRアルゴリズムを採用した。
我々は,MLR-PPLタスクを容易にするために,異なる画像間の意味的相関について検討する。
論文 参考訳(メタデータ) (2022-11-15T02:11:20Z) - Learning from Noisy Labels with Coarse-to-Fine Sample Credibility
Modeling [22.62790706276081]
ノイズの多いラベルでディープニューラルネットワーク(DNN)を訓練することは事実上難しい。
従来の取り組みでは、統合されたデノナイジングフローで部分データや完全なデータを扱う傾向があります。
本研究では,ノイズの多いデータを分割・分散的に処理するために,CREMAと呼ばれる粗大な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-23T02:06:38Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Mitigating Memorization in Sample Selection for Learning with Noisy
Labels [4.679610943608667]
そこで本研究では,クラスワイドペナルティラベルを用いて,支配的ノイズラベル付きサンプルを集中的にペナルティ化する基準を提案する。
提案したサンプル選択により,ネットワークの学習過程はノイズラベルに対して著しく堅牢になる。
論文 参考訳(メタデータ) (2021-07-08T06:44:04Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Multi-Objective Interpolation Training for Robustness to Label Noise [17.264550056296915]
標準教師付きコントラスト学習はラベル雑音の存在下で劣化することを示す。
コントラスト学習により学習したロバストな特徴表現を利用する新しいラベルノイズ検出手法を提案する。
合成および実世界のノイズベンチマークの実験は、MOIT/MOIT+が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2020-12-08T15:01:54Z) - Salvage Reusable Samples from Noisy Data for Robust Learning [70.48919625304]
本稿では,Web画像を用いた深部FGモデルのトレーニングにおいて,ラベルノイズに対処するための再利用可能なサンプル選択と修正手法を提案する。
私たちのキーとなるアイデアは、再利用可能なサンプルの追加と修正を行い、それらをクリーンな例とともに活用してネットワークを更新することです。
論文 参考訳(メタデータ) (2020-08-06T02:07:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。