論文の概要: Learning to Combat Noisy Labels via Classification Margins
- arxiv url: http://arxiv.org/abs/2102.00751v1
- Date: Mon, 1 Feb 2021 10:35:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 20:08:58.597630
- Title: Learning to Combat Noisy Labels via Classification Margins
- Title(参考訳): 分類マージンによる騒音ラベルのコンバット学習
- Authors: Jason Z. Lin and Jelena Bradic
- Abstract要約: ノイズの多いラベルでトレーニングされたディープニューラルネットワークは、ノイズの多いものからクリーンなインスタンスを識別する能力が急速に失われることが知られている。
我々はMARVELを提案し、各事例の「適合」の良さを、その分類限界のエポックヒストリーを維持することによって追跡する。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A deep neural network trained on noisy labels is known to quickly lose its
power to discriminate clean instances from noisy ones. After the early learning
phase has ended, the network memorizes the noisy instances, which leads to a
degradation in generalization performance. To resolve this issue, we propose
MARVEL (MARgins Via Early Learning), where we track the goodness of "fit" for
every instance by maintaining an epoch-history of its classification margins.
Based on consecutive negative margins, we discard suspected noisy instances by
zeroing out their weights. In addition, MARVEL+ upweights arduous instances
enabling the network to learn a more nuanced representation of the
classification boundary. Experimental results on benchmark datasets with
synthetic label noise show that MARVEL outperforms other baselines consistently
across different noise levels, with a significantly larger margin under
asymmetric noise.
- Abstract(参考訳): ノイズの多いラベルでトレーニングされたディープニューラルネットワークは、ノイズの多いものからクリーンなインスタンスを識別する能力が急速に失われることが知られている。
早期学習フェーズが終了した後、ネットワークは騒々しいインスタンスを記憶し、一般化パフォーマンスの低下につながります。
この問題を解決するため、マーベル(MARgins Via Early Learning)を提案し、分類のマージンの画期的な歴史を維持しながら、あらゆるインスタンスの「適合性」を追跡します。
連続する負のマージンに基づいて、重みをゼロにすることで、疑わしいノイズを排除した。
さらに、MARVEL+のアップウェイトは、ネットワークが分類境界のよりニュアンスな表現を学習できるようにする。
合成ラベルノイズを用いたベンチマーク実験の結果,MARVELは非対称雑音下でのマージンが著しく大きいため,他のベースラインよりも高い性能を示した。
関連論文リスト
- NoisyAG-News: A Benchmark for Addressing Instance-Dependent Noise in Text Classification [7.464154519547575]
ノイズラベルを用いた学習に関する既存の研究は、主に合成ノイズパターンに焦点を当てている。
実世界のテキスト分類設定においてラベルノイズをよりよく理解するためのベンチマークデータセットを構築した。
以上の結果から,事前学習モデルでは合成ノイズに耐性があるものの,インスタンス依存ノイズには耐え難いことが判明した。
論文 参考訳(メタデータ) (2024-07-09T06:18:40Z) - Multiclass Learning from Noisy Labels for Non-decomposable Performance Measures [15.358504449550013]
非分解性性能尺度の2つのクラスに対して雑音ラベルから学習するアルゴリズムを設計する。
どちらの場合も、広範に研究されているクラス条件雑音モデルの下で、アルゴリズムのノイズ補正バージョンを開発する。
実験では,ラベルノイズ処理におけるアルゴリズムの有効性を実証した。
論文 参考訳(メタデータ) (2024-02-01T23:03:53Z) - Learning under Label Noise through Few-Shot Human-in-the-Loop Refinement [37.4838454216137]
FHLR(Few-Shot Human-in-the-Loop Refinement)は、雑音ラベル学習のための新しいソリューションである。
雑音ラベルから学習するとFHLRの性能が著しく向上することを示す。
我々の研究は、ハイテイクなヘルスセンシングベンチマークでより良い一般化を達成するだけでなく、ノイズが一般的に使われているモデルにどのように影響するかにも光を当てています。
論文 参考訳(メタデータ) (2024-01-25T11:43:35Z) - FedNoisy: Federated Noisy Label Learning Benchmark [53.73816587601204]
フェデレーション学習は、クライアントからの機密データを集約することなく、分散学習で人気を集めている。
データ分離の分散と分離の性質は、データ品質によって複雑になり、ノイズの多いラベルに対してより脆弱になる可能性がある。
私たちは、研究者が潜在的にフェデレートされたノイズ設定を十分に調査するのに役立つ、最初の標準ベンチマークを提供しています。
論文 参考訳(メタデータ) (2023-06-20T16:18:14Z) - Robust Point Cloud Segmentation with Noisy Annotations [32.991219357321334]
クラスラベルは、実世界のデータセットのインスタンスレベルとバウンダリレベルの両方で誤ってラベル付けされることが多い。
我々は、Point Noise-Adaptive Learningフレームワークを提案することで、インスタンスレベルのラベルノイズを解決するのをリードする。
我々のフレームワークはベースラインを大幅に上回り、完全にクリーンなデータでトレーニングされた上限に匹敵する。
論文 参考訳(メタデータ) (2022-12-06T18:59:58Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - Training Classifiers that are Universally Robust to All Label Noise
Levels [91.13870793906968]
ディープニューラルネットワークは、ラベルノイズの存在下で過度に適合する傾向がある。
ポジティヴ・アンラベルラーニングの新たなサブカテゴリを取り入れた蒸留ベースのフレームワークを提案する。
我々の枠組みは概して中~高騒音レベルにおいて優れています。
論文 参考訳(メタデータ) (2021-05-27T13:49:31Z) - LongReMix: Robust Learning with High Confidence Samples in a Noisy Label
Environment [33.376639002442914]
新しい2段ノイズラベルトレーニングアルゴリズムLongReMixを提案します。
CIFAR-10, CIFAR-100, WebVision, Clothing1M, Food101-NでLongReMixを試験した。
私たちのアプローチは、ほとんどのデータセットで最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-03-06T18:48:40Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Class2Simi: A Noise Reduction Perspective on Learning with Noisy Labels [98.13491369929798]
そこで我々は,ノイズのあるクラスラベルを持つデータポイントを,ノイズの多い類似ラベルを持つデータペアに変換するClass2Simiというフレームワークを提案する。
Class2Simiは、この変換がミニバッチのオンザフライであるだけでなく、モデル予測上の損失をペアワイズに変化させるため、計算的に効率的である。
論文 参考訳(メタデータ) (2020-06-14T07:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。