論文の概要: Which Strategies Matter for Noisy Label Classification? Insight into
Loss and Uncertainty
- arxiv url: http://arxiv.org/abs/2008.06218v1
- Date: Fri, 14 Aug 2020 07:34:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 16:44:18.842808
- Title: Which Strategies Matter for Noisy Label Classification? Insight into
Loss and Uncertainty
- Title(参考訳): ノイズラベル分類のどの戦略が重要か?
損失と不確実性への洞察
- Authors: Wonyoung Shin, Jung-Woo Ha, Shengzhe Li, Yongwoo Cho, Hoyean Song,
Sunyoung Kwon
- Abstract要約: ラベルノイズは、ディープニューラルネットワークの一般化性能を低下させる重要な要因である。
学習過程を通じてサンプルの損失値と不確実性値がどのように変化するかの分析結果を示す。
我々は,ノイズの影響を最小限に抑えつつ,清潔で情報的なサンプルを強調する新しいロバストなトレーニング手法を設計する。
- 参考スコア(独自算出の注目度): 7.20844895799647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Label noise is a critical factor that degrades the generalization performance
of deep neural networks, thus leading to severe issues in real-world problems.
Existing studies have employed strategies based on either loss or uncertainty
to address noisy labels, and ironically some strategies contradict each other:
emphasizing or discarding uncertain samples or concentrating on high or low
loss samples. To elucidate how opposing strategies can enhance model
performance and offer insights into training with noisy labels, we present
analytical results on how loss and uncertainty values of samples change
throughout the training process. From the in-depth analysis, we design a new
robust training method that emphasizes clean and informative samples, while
minimizing the influence of noise using both loss and uncertainty. We
demonstrate the effectiveness of our method with extensive experiments on
synthetic and real-world datasets for various deep learning models. The results
show that our method significantly outperforms other state-of-the-art methods
and can be used generally regardless of neural network architectures.
- Abstract(参考訳): ラベルノイズは、ディープニューラルネットワークの一般化性能を低下させる重要な要因であり、現実世界の問題で深刻な問題を引き起こす。
既存の研究では、ノイズラベルに対処するために損失または不確実性に基づく戦略を採用しており、皮肉なことにいくつかの戦略は互いに矛盾している。
対立する戦略がモデル性能を向上し,ノイズラベルによるトレーニングに対する洞察を提供するために,トレーニングプロセスを通じてサンプルの損失と不確実性値がどのように変化するか分析結果を示す。
詳細な分析から,損失と不確実性の両方を用いてノイズの影響を最小限に抑えつつ,クリーンで情報的なサンプルを強調する新しい堅牢なトレーニング手法を設計する。
各種深層学習モデルのための合成および実世界のデータセットに関する広範な実験により,本手法の有効性を実証する。
その結果,本手法は他の最先端手法を大幅に上回っており,ニューラルネットワークアーキテクチャによらず一般に利用可能であることがわかった。
関連論文リスト
- Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - Analyze the Robustness of Classifiers under Label Noise [5.708964539699851]
教師付き学習におけるラベルノイズは、誤ったラベルまたは不正確なラベルによって特徴づけられ、モデル性能を著しく損なう。
本研究は, ラベルノイズが実用的応用に与える影響について, ますます関連する問題に焦点をあてる。
論文 参考訳(メタデータ) (2023-12-12T13:51:25Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - A Discrepancy Aware Framework for Robust Anomaly Detection [51.710249807397695]
本稿では,DAF(Disdisrepancy Aware Framework)を提案する。
本手法は,デコーダの欠陥同定に外見に依存しないキューを利用して,その合成外観への依存を緩和する。
単純な合成戦略の下では,既存の手法を大きなマージンで上回り,また,最先端のローカライゼーション性能も達成している。
論文 参考訳(メタデータ) (2023-10-11T15:21:40Z) - Learning to Abstain From Uninformative Data [20.132146513548843]
本研究では,一般的なノイズ発生過程下での学習と行動の問題について検討する。
この問題において、データ分布はラベルに高ノイズの非形式的なサンプルのかなりの割合を有する。
本稿では,選択学習理論に着想を得た損失を生かして,これらの条件下での学習に新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-25T15:55:55Z) - Learning with Noisy Labels through Learnable Weighting and Centroid Similarity [5.187216033152917]
ノイズラベルは、医学診断や自律運転などの領域で一般的である。
本稿では,雑音ラベルの存在下で機械学習モデルを訓練するための新しい手法を提案する。
以上の結果から,本手法は既存の最先端技術よりも一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2023-03-16T16:43:24Z) - Prototype-Anchored Learning for Learning with Imperfect Annotations [83.7763875464011]
不完全な注釈付きデータセットからバイアスのない分類モデルを学ぶことは困難である。
本稿では,様々な学習に基づく分類手法に容易に組み込むことができるプロトタイプ・アンコレッド学習法を提案する。
我々は,PALがクラス不均衡学習および耐雑音学習に与える影響を,合成および実世界のデータセットに関する広範な実験により検証した。
論文 参考訳(メタデータ) (2022-06-23T10:25:37Z) - Deep Active Learning with Noise Stability [24.54974925491753]
ラベルのないデータの不確実性推定は、アクティブな学習に不可欠である。
本稿では,雑音の安定性を利用して不確実性を推定する新しいアルゴリズムを提案する。
本手法はコンピュータビジョン,自然言語処理,構造データ解析など,様々なタスクに適用可能である。
論文 参考訳(メタデータ) (2022-05-26T13:21:01Z) - Influence-Balanced Loss for Imbalanced Visual Classification [9.958715010698157]
我々は、バランスの取れたトレーニングフェーズで使われる新たな損失を導き、過度に適合した決定境界の原因となるサンプルの影響を軽減する。
複数のベンチマークデータセットの実験において,提案手法の有効性を実証し,提案手法の損失が最先端のコスト感受性損失法より優れていることを示す。
論文 参考訳(メタデータ) (2021-10-06T01:12:40Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Learning Not to Learn in the Presence of Noisy Labels [104.7655376309784]
ギャンブラーの損失と呼ばれる新しい種類の損失関数は、様々なレベルの汚職にまたがってノイズをラベル付けするのに強い堅牢性をもたらすことを示す。
この損失関数によるトレーニングは、ノイズのあるラベルを持つデータポイントでの学習を"維持"することをモデルに促すことを示す。
論文 参考訳(メタデータ) (2020-02-16T09:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。