論文の概要: Learning to Combat Noisy Labels via Classification Margins
- arxiv url: http://arxiv.org/abs/2102.00751v1
- Date: Mon, 1 Feb 2021 10:35:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 20:08:58.597630
- Title: Learning to Combat Noisy Labels via Classification Margins
- Title(参考訳): 分類マージンによる騒音ラベルのコンバット学習
- Authors: Jason Z. Lin and Jelena Bradic
- Abstract要約: ノイズの多いラベルでトレーニングされたディープニューラルネットワークは、ノイズの多いものからクリーンなインスタンスを識別する能力が急速に失われることが知られている。
我々はMARVELを提案し、各事例の「適合」の良さを、その分類限界のエポックヒストリーを維持することによって追跡する。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A deep neural network trained on noisy labels is known to quickly lose its
power to discriminate clean instances from noisy ones. After the early learning
phase has ended, the network memorizes the noisy instances, which leads to a
degradation in generalization performance. To resolve this issue, we propose
MARVEL (MARgins Via Early Learning), where we track the goodness of "fit" for
every instance by maintaining an epoch-history of its classification margins.
Based on consecutive negative margins, we discard suspected noisy instances by
zeroing out their weights. In addition, MARVEL+ upweights arduous instances
enabling the network to learn a more nuanced representation of the
classification boundary. Experimental results on benchmark datasets with
synthetic label noise show that MARVEL outperforms other baselines consistently
across different noise levels, with a significantly larger margin under
asymmetric noise.
- Abstract(参考訳): ノイズの多いラベルでトレーニングされたディープニューラルネットワークは、ノイズの多いものからクリーンなインスタンスを識別する能力が急速に失われることが知られている。
早期学習フェーズが終了した後、ネットワークは騒々しいインスタンスを記憶し、一般化パフォーマンスの低下につながります。
この問題を解決するため、マーベル(MARgins Via Early Learning)を提案し、分類のマージンの画期的な歴史を維持しながら、あらゆるインスタンスの「適合性」を追跡します。
連続する負のマージンに基づいて、重みをゼロにすることで、疑わしいノイズを排除した。
さらに、MARVEL+のアップウェイトは、ネットワークが分類境界のよりニュアンスな表現を学習できるようにする。
合成ラベルノイズを用いたベンチマーク実験の結果,MARVELは非対称雑音下でのマージンが著しく大きいため,他のベースラインよりも高い性能を示した。
関連論文リスト
- Learning to Segment from Noisy Annotations: A Spatial Correction
Approach [12.604673584405385]
ノイズラベルはディープニューラルネットワーク(DNN)の性能に大きく影響する
空間相関とバイアスの両方をエンコードするセグメンテーションノイズアノテーションのための新しいマルコフモデルを提案する。
提案手法は, 合成および実世界のノイズアノテーションにおいて, 最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-21T00:27:40Z) - Robust Point Cloud Segmentation with Noisy Annotations [32.991219357321334]
クラスラベルは、実世界のデータセットのインスタンスレベルとバウンダリレベルの両方で誤ってラベル付けされることが多い。
我々は、Point Noise-Adaptive Learningフレームワークを提案することで、インスタンスレベルのラベルノイズを解決するのをリードする。
我々のフレームワークはベースラインを大幅に上回り、完全にクリーンなデータでトレーニングされた上限に匹敵する。
論文 参考訳(メタデータ) (2022-12-06T18:59:58Z) - Learning from Noisy Labels with Coarse-to-Fine Sample Credibility
Modeling [22.62790706276081]
ノイズの多いラベルでディープニューラルネットワーク(DNN)を訓練することは事実上難しい。
従来の取り組みでは、統合されたデノナイジングフローで部分データや完全なデータを扱う傾向があります。
本研究では,ノイズの多いデータを分割・分散的に処理するために,CREMAと呼ばれる粗大な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-23T02:06:38Z) - Learning to Aggregate and Refine Noisy Labels for Visual Sentiment
Analysis [69.48582264712854]
本研究では,頑健な視覚的感情分析を行うための頑健な学習手法を提案する。
本手法は,トレーニング中にノイズラベルを集約・フィルタリングするために外部メモリに依存している。
公開データセットを用いたラベルノイズを用いた視覚的感情分析のベンチマークを構築した。
論文 参考訳(メタデータ) (2021-09-15T18:18:28Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - Training Classifiers that are Universally Robust to All Label Noise
Levels [91.13870793906968]
ディープニューラルネットワークは、ラベルノイズの存在下で過度に適合する傾向がある。
ポジティヴ・アンラベルラーニングの新たなサブカテゴリを取り入れた蒸留ベースのフレームワークを提案する。
我々の枠組みは概して中~高騒音レベルにおいて優れています。
論文 参考訳(メタデータ) (2021-05-27T13:49:31Z) - LongReMix: Robust Learning with High Confidence Samples in a Noisy Label
Environment [33.376639002442914]
新しい2段ノイズラベルトレーニングアルゴリズムLongReMixを提案します。
CIFAR-10, CIFAR-100, WebVision, Clothing1M, Food101-NでLongReMixを試験した。
私たちのアプローチは、ほとんどのデータセットで最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-03-06T18:48:40Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Class2Simi: A Noise Reduction Perspective on Learning with Noisy Labels [98.13491369929798]
そこで我々は,ノイズのあるクラスラベルを持つデータポイントを,ノイズの多い類似ラベルを持つデータペアに変換するClass2Simiというフレームワークを提案する。
Class2Simiは、この変換がミニバッチのオンザフライであるだけでなく、モデル予測上の損失をペアワイズに変化させるため、計算的に効率的である。
論文 参考訳(メタデータ) (2020-06-14T07:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。