論文の概要: PENCIL: Deep Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2202.08436v1
- Date: Thu, 17 Feb 2022 03:56:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 15:20:11.321360
- Title: PENCIL: Deep Learning with Noisy Labels
- Title(参考訳): PENCIL: ノイズラベルによるディープラーニング
- Authors: Kun Yi, Guo-Hua Wang, Jianxin Wu
- Abstract要約: ノイズの多いラベルでデータセットを収集するのは簡単だが、そのようなノイズによりネットワークは過度に適合し、精度は劇的に低下する。
本稿では,ネットワークパラメータとラベル推定の両方をラベル分布として更新できるPENCILというエンドツーエンドフレームワークを提案する。
PENCILは、合成と実世界の両方のデータセットにおいて、従来の最先端の手法よりも大きなマージンで優れている。
- 参考スコア(独自算出の注目度): 35.05948787888255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has achieved excellent performance in various computer vision
tasks, but requires a lot of training examples with clean labels. It is easy to
collect a dataset with noisy labels, but such noise makes networks overfit
seriously and accuracies drop dramatically. To address this problem, we propose
an end-to-end framework called PENCIL, which can update both network parameters
and label estimations as label distributions. PENCIL is independent of the
backbone network structure and does not need an auxiliary clean dataset or
prior information about noise, thus it is more general and robust than existing
methods and is easy to apply. PENCIL can even be used repeatedly to obtain
better performance. PENCIL outperforms previous state-of-the-art methods by
large margins on both synthetic and real-world datasets with different noise
types and noise rates. And PENCIL is also effective in multi-label
classification tasks through adding a simple attention structure on backbone
networks. Experiments show that PENCIL is robust on clean datasets, too.
- Abstract(参考訳): ディープラーニングは様々なコンピュータビジョンタスクにおいて優れたパフォーマンスを実現しているが、クリーンなラベルで多くのトレーニング例を必要とする。
ノイズの多いラベルでデータセットを収集するのは簡単だが、そのようなノイズによりネットワークは過度に適合し、精度は劇的に低下する。
この問題に対処するために,ネットワークパラメータとラベル推定をラベル分布として更新するPENCILというエンドツーエンドフレームワークを提案する。
PENCILはバックボーンネットワーク構造とは独立しており、補助的なクリーンデータセットやノイズに関する事前情報を必要としないため、既存の手法よりも汎用的で堅牢であり、適用が容易である。
PENCILは、パフォーマンス向上のために繰り返し使用することもできる。
PENCILは、ノイズタイプやノイズ率の異なる合成および実世界のデータセットにおいて、従来の最先端の手法よりも大きなマージンで優れている。
また,PENCILはバックボーンネットワークに単純なアテンション構造を加えることで,マルチラベル分類タスクにも有効である。
実験によると、PENCILはクリーンなデータセットにも堅牢である。
関連論文リスト
- ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - Constrained Instance and Class Reweighting for Robust Learning under
Label Noise [20.30785186456126]
本稿では,個々のインスタンスやクラスラベルに重みを割り当てることを目的として,ラベルノイズに対処する手法を提案する。
本手法は,これらの重み付けに対して単純な閉形式更新をもたらす制約付き最適化問題のクラスを定式化することによって機能する。
提案手法を複数のベンチマークデータセット上で評価し,ラベルノイズの有無でかなりの性能向上を観測した。
論文 参考訳(メタデータ) (2021-11-09T21:37:53Z) - Co-Seg: An Image Segmentation Framework Against Label Corruption [8.219887855003648]
改良されたディープラーニングのパフォーマンスは、トレーニングのための高品質なラベルの可用性に強く結びついている。
我々は,低品質なノイズラベルを含むデータセット上でセグメンテーションネットワークを協調的に学習する新しいフレームワーク,Co-Segを提案する。
我々のフレームワークはどんなセグメンテーションアルゴリズムでも容易に実装でき、ノイズの多いラベルへのロバスト性を高めることができる。
論文 参考訳(メタデータ) (2021-01-31T20:01:40Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - Coresets for Robust Training of Neural Networks against Noisy Labels [78.03027938765746]
本稿では,雑音ラベルで訓練したディープネットワークの堅牢なトレーニングのための理論的保証を強く備えた新しい手法を提案する。
我々は、ほぼ低ランクのヤコビ行列を提供するクリーンなデータポイントの重み付き部分集合(コアセット)を選択する。
我々の実験は、我々の理論を裏付け、我々のサブセットで訓練されたディープネットワークが、最先端技術よりもはるかに優れたパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2020-11-15T04:58:11Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z) - Audio Tagging by Cross Filtering Noisy Labels [26.14064793686316]
そこで我々はCrossFilterという新しいフレームワークを提案し,音声タグ付けにおけるノイズラベル問題に対処する。
提案手法は最先端の性能を達成し,アンサンブルモデルを超えている。
論文 参考訳(メタデータ) (2020-07-16T07:55:04Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。