論文の概要: Towards Understanding Deep Learning from Noisy Labels with Small-Loss
Criterion
- arxiv url: http://arxiv.org/abs/2106.09291v1
- Date: Thu, 17 Jun 2021 07:53:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 16:07:30.929867
- Title: Towards Understanding Deep Learning from Noisy Labels with Small-Loss
Criterion
- Title(参考訳): 雑音ラベルからの深層学習の理解に向けて
- Authors: Xian-Jin Gui, Wei Wang, Zhang-Hao Tian
- Abstract要約: 理論上、広く使われている小さめの基準がなぜ機能するのかを説明する。
この説明に基づき,バニラの低損失基準を改良し,ノイズラベルに対処する。
- 参考スコア(独自算出の注目度): 5.542578395360614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks need large amounts of labeled data to achieve good
performance. In real-world applications, labels are usually collected from
non-experts such as crowdsourcing to save cost and thus are noisy. In the past
few years, deep learning methods for dealing with noisy labels have been
developed, many of which are based on the small-loss criterion. However, there
are few theoretical analyses to explain why these methods could learn well from
noisy labels. In this paper, we theoretically explain why the widely-used
small-loss criterion works. Based on the explanation, we reformalize the
vanilla small-loss criterion to better tackle noisy labels. The experimental
results verify our theoretical explanation and also demonstrate the
effectiveness of the reformalization.
- Abstract(参考訳): ディープニューラルネットワークは、高性能を実現するために大量のラベル付きデータを必要とする。
現実世界のアプリケーションでは、ラベルは通常クラウドソーシングのような非専門家から収集され、コストを節約し、ノイズを発生させる。
近年,ノイズラベルを扱うための深層学習手法が開発され,その多くが小損失基準に基づいている。
しかし、これらの手法がノイズラベルからうまく学べる理由を説明する理論的解析は少ない。
本稿では,広く使われている小損失基準がなぜ機能するのかを理論的に説明する。
この説明に基づき,バニラの低損失基準を改良し,ノイズラベルに対処する。
実験結果は,我々の理論的説明を検証し,改革の有効性を実証した。
関連論文リスト
- Regularly Truncated M-estimators for Learning with Noisy Labels [79.36560434324586]
本稿では,上記の2つの問題に同時に対処するために,RTME (Trruncated M-estimator) を提案する。
具体的には、RTMEは、切り離されたM推定器とオリジナルのM推定器の間でモードを交互に切り替えることができる。
当社の戦略がラベルノイズ耐性であることを実証します。
論文 参考訳(メタデータ) (2023-09-02T10:22:20Z) - FedNoisy: Federated Noisy Label Learning Benchmark [53.73816587601204]
フェデレーション学習は、クライアントからの機密データを集約することなく、分散学習で人気を集めている。
データ分離の分散と分離の性質は、データ品質によって複雑になり、ノイズの多いラベルに対してより脆弱になる可能性がある。
私たちは、研究者が潜在的にフェデレートされたノイズ設定を十分に調査するのに役立つ、最初の標準ベンチマークを提供しています。
論文 参考訳(メタデータ) (2023-06-20T16:18:14Z) - Tripartite: Tackle Noisy Labels by a More Precise Partition [21.582850128741022]
トレーニングデータをより正確に3つのサブセット(ハード、ノイズ、クリーン)に分割するTripartiteソリューションを提案する。
ノイズラベルの害を最小限に抑えつつノイズラベルデータの価値を最大化するために、ハードデータに低ウェイト学習を適用し、与えられたラベルを使わずにノイズラベルデータに自己教師付き学習を行う。
論文 参考訳(メタデータ) (2022-02-19T11:15:02Z) - Learning to Aggregate and Refine Noisy Labels for Visual Sentiment
Analysis [69.48582264712854]
本研究では,頑健な視覚的感情分析を行うための頑健な学習手法を提案する。
本手法は,トレーニング中にノイズラベルを集約・フィルタリングするために外部メモリに依存している。
公開データセットを用いたラベルノイズを用いた視覚的感情分析のベンチマークを構築した。
論文 参考訳(メタデータ) (2021-09-15T18:18:28Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - Learning from Noisy Labels with Deep Neural Networks: A Survey [21.65194818903678]
ノイズラベルは ディープニューラルネットワークの 一般化性能を著しく低下させます
本稿ではまず,教師あり学習の観点からラベルノイズを用いた学習の問題について述べる。
本報告では,62の最先端ロバストトレーニング手法を概説し,その方法論的差異に応じて5つのグループに分類する。
論文 参考訳(メタデータ) (2020-07-16T09:23:13Z) - Label Noise Types and Their Effects on Deep Learning [0.0]
本研究では,異なる種類のラベルノイズが学習に与える影響を詳細に分析する。
本稿では,特徴に依存したラベルノイズを生成する汎用フレームワークを提案する。
他の研究者がノイズの多いラベルでアルゴリズムをテストしやすいように、最も一般的に使用されているベンチマークデータセットに対して、破損したラベルを共有します。
論文 参考訳(メタデータ) (2020-03-23T18:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。