論文の概要: Boosting Co-teaching with Compression Regularization for Label Noise
- arxiv url: http://arxiv.org/abs/2104.13766v1
- Date: Wed, 28 Apr 2021 13:56:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 12:45:26.961270
- Title: Boosting Co-teaching with Compression Regularization for Label Noise
- Title(参考訳): 圧縮正規化によるラベル雑音の強化
- Authors: Yingyi Chen, Xi Shen, Shell Xu Hu, Johan A.K. Suykens
- Abstract要約: 本稿では,ラベルノイズの存在下での画像分類モデル学習の問題点について検討する。
Nested Dropoutは、もともと高速な情報検索と適応データ圧縮を行うために提案されていたが、ニューラルネットワークを適切に正規化してラベルノイズと戦うことができる。
- 参考スコア(独自算出の注目度): 22.458671973140266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the problem of learning image classification models
in the presence of label noise. We revisit a simple compression regularization
named Nested Dropout. We find that Nested Dropout, though originally proposed
to perform fast information retrieval and adaptive data compression, can
properly regularize a neural network to combat label noise. Moreover, owing to
its simplicity, it can be easily combined with Co-teaching to further boost the
performance.
Our final model remains simple yet effective: it achieves comparable or even
better performance than the state-of-the-art approaches on two real-world
datasets with label noise which are Clothing1M and ANIMAL-10N. On Clothing1M,
our approach obtains 74.9% accuracy which is slightly better than that of
DivideMix. On ANIMAL-10N, we achieve 84.1% accuracy while the best public
result by PLC is 83.4%. We hope that our simple approach can be served as a
strong baseline for learning with label noise. Our implementation is available
at https://github.com/yingyichen-cyy/Nested-Co-teaching.
- Abstract(参考訳): 本稿では,ラベルノイズの存在下での画像分類モデル学習の問題点について検討する。
我々はNested Dropoutというシンプルな圧縮正規化を再考する。
Nested Dropoutは、もともと高速な情報検索と適応データ圧縮を行うために提案されていたが、ニューラルネットワークを適切に正規化してラベルノイズと戦うことができる。
さらに、その単純さから、Co-Teachingと簡単に組み合わせてパフォーマンスをさらに向上させることができる。
ラベルノイズを持つ2つの実世界のデータセット(Clothing1MとANIMAL-10N)に対して、最先端のアプローチと同等あるいはそれ以上のパフォーマンスを実現しています。
Clothing1Mでは,DivideMixよりわずかに優れた74.9%の精度が得られる。
ANIMAL-10Nでは84.1%の精度で、PLCでは83.4%である。
ラベルノイズを学習するための強力なベースラインとして,私たちのシンプルなアプローチが提供できることを願っています。
私たちの実装はhttps://github.com/yingyichen-cyy/nested-co-teachingで利用可能です。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Learning under Label Noise through Few-Shot Human-in-the-Loop Refinement [37.4838454216137]
FHLR(Few-Shot Human-in-the-Loop Refinement)は、雑音ラベル学習のための新しいソリューションである。
雑音ラベルから学習するとFHLRの性能が著しく向上することを示す。
我々の研究は、ハイテイクなヘルスセンシングベンチマークでより良い一般化を達成するだけでなく、ノイズが一般的に使われているモデルにどのように影響するかにも光を当てています。
論文 参考訳(メタデータ) (2024-01-25T11:43:35Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Identifying Hard Noise in Long-Tailed Sample Distribution [76.16113794808001]
NLT(Noisy Long-Tailed Classification)を紹介する。
ほとんどのノイズ除去法は、ハードノイズを特定するのに失敗する。
我々はH2E(Hard-to-Easy)と呼ばれる反復的な雑音学習フレームワークを設計する。
論文 参考訳(メタデータ) (2022-07-27T09:03:03Z) - Compressing Features for Learning with Noisy Labels [22.046933562011088]
教師付き学習は、入力データから特徴表現に関連情報を蒸留すると見なすことができる。
最近の研究によると、ネットワークは腐敗しているラベルを含むすべてのラベルに簡単に適合できる。
本稿では,雑音ラベルによる学習の問題に着目し,この過度な問題を軽減するために,圧縮帰納バイアスをネットワークアーキテクチャに導入する。
論文 参考訳(メタデータ) (2022-06-27T09:39:41Z) - UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning [89.56465237941013]
UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
論文 参考訳(メタデータ) (2022-03-28T07:36:36Z) - Learning with Noisy Labels Revisited: A Study Using Real-World Human
Annotations [54.400167806154535]
ノイズラベルを用いた学習に関する既存の研究は、主に合成ラベルノイズに焦点を当てている。
本研究は2つの新しいベンチマークデータセット(CIFAR-10N, CIFAR-100N)を示す。
実世界のノイズラベルは古典的に採用されたクラス依存のラベルではなく、インスタンス依存のパターンに従うことを示す。
論文 参考訳(メタデータ) (2021-10-22T22:42:11Z) - LongReMix: Robust Learning with High Confidence Samples in a Noisy Label
Environment [33.376639002442914]
新しい2段ノイズラベルトレーニングアルゴリズムLongReMixを提案します。
CIFAR-10, CIFAR-100, WebVision, Clothing1M, Food101-NでLongReMixを試験した。
私たちのアプローチは、ほとんどのデータセットで最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-03-06T18:48:40Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。