論文の概要: Robust Temporal Ensembling for Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2109.14563v1
- Date: Wed, 29 Sep 2021 16:59:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 16:59:21.721522
- Title: Robust Temporal Ensembling for Learning with Noisy Labels
- Title(参考訳): 雑音ラベル学習のためのロバストな時間感覚
- Authors: Abel Brown, Benedikt Schifferer, Robert DiPietro
- Abstract要約: 本研究では,頑健な時間的アンサンブル(RTE)を半教師付き正規化法と組み合わせ,ノイズロス学習を実現する。
RTEはCIFAR-10、CIFAR-100、ImageNet、WebVision、Food-101Nデータセットで最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Successful training of deep neural networks with noisy labels is an essential
capability as most real-world datasets contain some amount of mislabeled data.
Left unmitigated, label noise can sharply degrade typical supervised learning
approaches. In this paper, we present robust temporal ensembling (RTE), which
combines robust loss with semi-supervised regularization methods to achieve
noise-robust learning. We demonstrate that RTE achieves state-of-the-art
performance across the CIFAR-10, CIFAR-100, ImageNet, WebVision, and Food-101N
datasets, while forgoing the recent trend of label filtering and/or fixing.
Finally, we show that RTE also retains competitive corruption robustness to
unforeseen input noise using CIFAR-10-C, obtaining a mean corruption error
(mCE) of 13.50% even in the presence of an 80% noise ratio, versus 26.9% mCE
with standard methods on clean data.
- Abstract(参考訳): ノイズラベル付きディープニューラルネットワークのトレーニングの成功は、ほとんどの実世界のデータセットには、ある程度のラベル付きデータが含まれているため、必須の機能である。
ラベルノイズは、通常の教師付き学習アプローチを著しく劣化させる。
本稿では,頑健な時間的アンサンブル(RTE)を半教師付き正規化法と組み合わせ,ノイズロス学習を実現する。
CIFAR-10, CIFAR-100, ImageNet, WebVision, およびFood-101Nデータセットにまたがって, 近年のラベルフィルタリングや修正の傾向を推し進めながら, 最先端のパフォーマンスを実現することを実証した。
最後に,RTEはCIFAR-10-Cを用いた入力ノイズに対する競合汚損強度を保ち,80%のノイズ比であっても平均汚損誤差(mCE)が13.50%となるのに対して,26.9% mCEはクリーンデータに対する標準的な手法であることを示す。
関連論文リスト
- A Study on the Impact of Data Augmentation for Training Convolutional
Neural Networks in the Presence of Noisy Labels [14.998309259808236]
ラベルノイズは大規模な実世界のデータセットで一般的であり、その存在はディープニューラルネットワークのトレーニングプロセスに悪影響を及ぼす。
我々は、深層ニューラルネットワークをトレーニングするための設計選択として、データ拡張の影響を評価する。
データ拡張の適切な選択は、ラベルノイズに対するモデルロバスト性を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-08-23T20:04:17Z) - Boosting Facial Expression Recognition by A Semi-Supervised Progressive
Teacher [54.50747989860957]
本稿では,信頼度の高いFERデータセットと大規模未ラベル表現画像を有効訓練に用いるための半教師付き学習アルゴリズム,Progressive Teacher (PT)を提案する。
RAF-DB と FERPlus を用いた実験により,RAF-DB で89.57% の精度で最先端の性能を実現する手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-05-28T07:47:53Z) - Reliable Label Correction is a Good Booster When Learning with Extremely
Noisy Labels [65.79898033530408]
極音下での学習に明示的に取り組むために,LC-Boosterと呼ばれる新しい枠組みを導入する。
LC-Boosterは、ラベル補正をサンプル選択に組み込むことで、信頼性の高いラベル修正を通じて、より精製されたサンプルをトレーニングに利用することができる。
実験により、LC-Boosterはいくつかのノイズラベルベンチマークで最先端の結果を前進させることが示された。
論文 参考訳(メタデータ) (2022-04-30T07:19:03Z) - CNLL: A Semi-supervised Approach For Continual Noisy Label Learning [12.341250124228859]
コスト効率と精度の両立したオンラインデータストリームを効果的に浄化する簡単な浄化手法を提案する。
精製後、我々は、利用可能なすべてのサンプルを確実に参加させる半教師付きで微調整を行う。
従来のSOTA法よりも20%のノイズでCIFAR10の24.8%の性能向上を実現した。
論文 参考訳(メタデータ) (2022-04-21T05:01:10Z) - Class-Aware Contrastive Semi-Supervised Learning [51.205844705156046]
本研究では,擬似ラベル品質を向上し,実環境におけるモデルの堅牢性を高めるため,CCSSL(Class-Aware Contrastive Semi-Supervised Learning)と呼ばれる一般的な手法を提案する。
提案するCCSSLは,標準データセットCIFAR100とSTL10の最先端SSLメソッドに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-03-04T12:18:23Z) - Consistency Regularization Can Improve Robustness to Label Noise [4.340338299803562]
本稿では,雑音ラベルに対するトレーニング時ロバスト性に対する整合正則化の関連性について実験的に検討する。
整合性を促進する単純な損失関数は、ノイズをラベル付けするためのモデルの堅牢性を改善する。
論文 参考訳(メタデータ) (2021-10-04T08:15:08Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - Boosting Semi-Supervised Face Recognition with Noise Robustness [54.342992887966616]
本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
そこで我々は,gnが強化するロバストな学習能力に基づく,ノイズロバスト学習ラベリング(nroll)という,半教師付き顔認識ソリューションを開発した。
論文 参考訳(メタデータ) (2021-05-10T14:43:11Z) - Contrastive Learning Improves Model Robustness Under Label Noise [3.756550107432323]
コントラスト学習で学習した表現を用いて教師付きロバスト手法を初期化することで,ラベル雑音下での性能が著しく向上することを示す。
最も単純な方法でさえ、コントラスト学習の場合、高いラベルノイズの下で最先端のSSLメソッドを50%以上上回ることができます。
論文 参考訳(メタデータ) (2021-04-19T00:27:58Z) - Augmentation Strategies for Learning with Noisy Labels [3.698228929379249]
ノイズラベル付き学習」問題に取り組むアルゴリズムについて,様々な拡張戦略を評価した。
ロスモデリングタスクと学習のための別のセットに拡張の1つのセットを使用することが最も効果的であることがわかります。
我々は,この拡張戦略を最先端技術に導入し,評価されたすべての騒音レベルにおける性能向上を実証する。
論文 参考訳(メタデータ) (2021-03-03T02:19:35Z) - Coresets for Robust Training of Neural Networks against Noisy Labels [78.03027938765746]
本稿では,雑音ラベルで訓練したディープネットワークの堅牢なトレーニングのための理論的保証を強く備えた新しい手法を提案する。
我々は、ほぼ低ランクのヤコビ行列を提供するクリーンなデータポイントの重み付き部分集合(コアセット)を選択する。
我々の実験は、我々の理論を裏付け、我々のサブセットで訓練されたディープネットワークが、最先端技術よりもはるかに優れたパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2020-11-15T04:58:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。