論文の概要: EvidentialMix: Learning with Combined Open-set and Closed-set Noisy
Labels
- arxiv url: http://arxiv.org/abs/2011.05704v1
- Date: Wed, 11 Nov 2020 11:15:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 23:22:18.051370
- Title: EvidentialMix: Learning with Combined Open-set and Closed-set Noisy
Labels
- Title(参考訳): obviousialmix: オープンセットとクローズドセットの組み合わせによる学習
- Authors: Ragav Sachdeva, Filipe R. Cordeiro, Vasileios Belagiannis, Ian Reid,
Gustavo Carneiro
- Abstract要約: 開集合ラベルと閉集合ラベルを組み合わせた雑音ラベル問題の新しい変種について検討する。
その結果,従来の最先端手法よりも優れた分類結果と特徴表現が得られた。
- 参考スコア(独自算出の注目度): 30.268962418683955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The efficacy of deep learning depends on large-scale data sets that have been
carefully curated with reliable data acquisition and annotation processes.
However, acquiring such large-scale data sets with precise annotations is very
expensive and time-consuming, and the cheap alternatives often yield data sets
that have noisy labels. The field has addressed this problem by focusing on
training models under two types of label noise: 1) closed-set noise, where some
training samples are incorrectly annotated to a training label other than their
known true class; and 2) open-set noise, where the training set includes
samples that possess a true class that is (strictly) not contained in the set
of known training labels. In this work, we study a new variant of the noisy
label problem that combines the open-set and closed-set noisy labels, and
introduce a benchmark evaluation to assess the performance of training
algorithms under this setup. We argue that such problem is more general and
better reflects the noisy label scenarios in practice. Furthermore, we propose
a novel algorithm, called EvidentialMix, that addresses this problem and
compare its performance with the state-of-the-art methods for both closed-set
and open-set noise on the proposed benchmark. Our results show that our method
produces superior classification results and better feature representations
than previous state-of-the-art methods. The code is available at
https://github.com/ragavsachdeva/EvidentialMix.
- Abstract(参考訳): ディープラーニングの有効性は、信頼できるデータ取得とアノテーションプロセスで注意深くキュレートされた大規模データセットに依存する。
しかし、このような大規模なデータセットを正確なアノテーションで取得するのは非常に高価で時間を要するため、安価な代替手段は、しばしばノイズの多いラベルを持つデータセットを生成する。
この分野では、2種類のラベルノイズのトレーニングモデルに注目してこの問題に対処している。
1) クローズドセットノイズは、一部のトレーニングサンプルが、既知の真のクラス以外のトレーニングラベルに誤ってアノテートされる。
2) トレーニングセットが既知のトレーニングラベルのセットに(部分的に)含まれない真のクラスを持つサンプルを含むオープンセットノイズ。
本研究では,オープンセットとクローズドセットのノイズラベルを組み合わせた新しいノイズラベル問題について検討し,この設定下でのトレーニングアルゴリズムの性能を評価するためのベンチマーク評価を導入する。
このような問題はより一般的であり、実際にはノイズの多いラベルシナリオをよりよく反映していると論じる。
さらに,この問題に対処する新しいアルゴリズムであるEvidentialMixを提案し,その性能を,提案したベンチマークのクローズドセットおよびオープンセットノイズに対する最先端手法と比較する。
その結果,従来の最先端手法よりも優れた分類結果と特徴表現が得られた。
コードはhttps://github.com/ragavsachdeva/evidentialmixで入手できる。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Multiclass Learning from Noisy Labels for Non-decomposable Performance Measures [15.358504449550013]
非分解性性能尺度の2つのクラスに対して雑音ラベルから学習するアルゴリズムを設計する。
どちらの場合も、広範に研究されているクラス条件雑音モデルの下で、アルゴリズムのノイズ補正バージョンを開発する。
実験では,ラベルノイズ処理におけるアルゴリズムの有効性を実証した。
論文 参考訳(メタデータ) (2024-02-01T23:03:53Z) - Rethinking Noisy Label Learning in Real-world Annotation Scenarios from
the Noise-type Perspective [38.24239397999152]
本稿では,雑音ラベル学習のためのサンプル選択に基づく新しい手法であるProto-semiを提案する。
Proto-semiは、すべてのサンプルをウォームアップを通じて信頼性と信頼できないデータセットに分割する。
自信のあるデータセットを活用することで、プロトタイプベクターがクラス特性をキャプチャするために構築される。
実世界の注釈付きデータセットの実証評価は、ノイズラベルから学習する問題の処理において、プロトセミの頑健さを裏付けるものである。
論文 参考訳(メタデータ) (2023-07-28T10:57:38Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - LongReMix: Robust Learning with High Confidence Samples in a Noisy Label
Environment [33.376639002442914]
新しい2段ノイズラベルトレーニングアルゴリズムLongReMixを提案します。
CIFAR-10, CIFAR-100, WebVision, Clothing1M, Food101-NでLongReMixを試験した。
私たちのアプローチは、ほとんどのデータセットで最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-03-06T18:48:40Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Error-Bounded Correction of Noisy Labels [17.510654621245656]
ノイズのある分類器の予測は、トレーニングデータのラベルがクリーンかどうかを示す良い指標であることを示す。
理論的結果に基づいて,雑音分類器の予測に基づいてラベルを補正する新しいアルゴリズムを提案する。
ラベル補正アルゴリズムをディープニューラルネットワークのトレーニングや,複数の公開データセット上で優れたテスト性能を実現するトレーニングモデルに組み込む。
論文 参考訳(メタデータ) (2020-11-19T19:23:23Z) - Class2Simi: A Noise Reduction Perspective on Learning with Noisy Labels [98.13491369929798]
そこで我々は,ノイズのあるクラスラベルを持つデータポイントを,ノイズの多い類似ラベルを持つデータペアに変換するClass2Simiというフレームワークを提案する。
Class2Simiは、この変換がミニバッチのオンザフライであるだけでなく、モデル予測上の損失をペアワイズに変化させるため、計算的に効率的である。
論文 参考訳(メタデータ) (2020-06-14T07:55:32Z) - Label Noise Types and Their Effects on Deep Learning [0.0]
本研究では,異なる種類のラベルノイズが学習に与える影響を詳細に分析する。
本稿では,特徴に依存したラベルノイズを生成する汎用フレームワークを提案する。
他の研究者がノイズの多いラベルでアルゴリズムをテストしやすいように、最も一般的に使用されているベンチマークデータセットに対して、破損したラベルを共有します。
論文 参考訳(メタデータ) (2020-03-23T18:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。