論文の概要: Class2Simi: A Noise Reduction Perspective on Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2006.07831v2
- Date: Thu, 17 Jun 2021 10:10:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 09:49:37.729010
- Title: Class2Simi: A Noise Reduction Perspective on Learning with Noisy Labels
- Title(参考訳): class2simi: 雑音ラベルを用いた学習におけるノイズ低減の視点
- Authors: Songhua Wu, Xiaobo Xia, Tongliang Liu, Bo Han, Mingming Gong, Nannan
Wang, Haifeng Liu, Gang Niu
- Abstract要約: そこで我々は,ノイズのあるクラスラベルを持つデータポイントを,ノイズの多い類似ラベルを持つデータペアに変換するClass2Simiというフレームワークを提案する。
Class2Simiは、この変換がミニバッチのオンザフライであるだけでなく、モデル予測上の損失をペアワイズに変化させるため、計算的に効率的である。
- 参考スコア(独自算出の注目度): 98.13491369929798
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning with noisy labels has attracted a lot of attention in recent years,
where the mainstream approaches are in pointwise manners. Meanwhile, pairwise
manners have shown great potential in supervised metric learning and
unsupervised contrastive learning. Thus, a natural question is raised: does
learning in a pairwise manner mitigate label noise? To give an affirmative
answer, in this paper, we propose a framework called Class2Simi: it transforms
data points with noisy class labels to data pairs with noisy similarity labels,
where a similarity label denotes whether a pair shares the class label or not.
Through this transformation, the reduction of the noise rate is theoretically
guaranteed, and hence it is in principle easier to handle noisy similarity
labels. Amazingly, DNNs that predict the clean class labels can be trained from
noisy data pairs if they are first pretrained from noisy data points.
Class2Simi is computationally efficient because not only this transformation is
on-the-fly in mini-batches, but also it just changes loss computation on top of
model prediction into a pairwise manner. Its effectiveness is verified by
extensive experiments.
- Abstract(参考訳): ノイズの多いラベルで学ぶことは近年多くの注目を集めており、主流のアプローチはポイントワイズである。
一方、ペアワイズ方式は、教師なしメトリック学習と教師なしコントラスト学習に大きな可能性を示している。
したがって、自然な疑問が提起される: 学習はペアワイズにラベルノイズを軽減するか?
そこで,本論文では,雑音のあるクラスラベルを持つデータポイントを,ノイズの多い類似性ラベルを持つデータペアに変換することによって,類似性ラベルがクラスラベルを共有するか否かを示す,クラス2シミというフレームワークを提案する。
この変換により、ノイズレートの低減は理論的に保証され、原理的にはノイズ類似性ラベルの扱いが容易である。
驚くべきことに、クリーンなクラスラベルを予測するDNNは、ノイズの多いデータポイントから最初にトレーニングされた場合、ノイズの多いデータペアからトレーニングすることができる。
Class2Simiは、この変換がミニバッチのオンザフライであるだけでなく、モデル予測上の損失計算をペアワイズに変化させるため、計算効率が良い。
その効果は広範な実験によって検証される。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Multi-Label Noise Transition Matrix Estimation with Label Correlations:
Theory and Algorithm [73.94839250910977]
ノイズの多いマルチラベル学習は、大規模な正確なラベルの収集によって生じる課題により、注目を集めている。
遷移行列の導入は、マルチラベルノイズをモデル化し、統計的に一貫したアルゴリズムの開発に役立つ。
そこで本稿では, アンカーポイントを必要とせずに, ラベル相関を利用した新しい推定器を提案する。
論文 参考訳(メタデータ) (2023-09-22T08:35:38Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Extended T: Learning with Mixed Closed-set and Open-set Noisy Labels [86.5943044285146]
ラベルノイズ遷移行列$T$は、真のラベルがノイズのあるものへと反転する確率を反映する。
本稿では,閉集合と開集合の混在したラベル雑音下での学習に着目した。
本手法は,従来の最先端のラベル雑音学習法よりも頑健な性能を追求し,混合ラベル雑音をモデル化する。
論文 参考訳(メタデータ) (2020-12-02T02:42:45Z) - Error-Bounded Correction of Noisy Labels [17.510654621245656]
ノイズのある分類器の予測は、トレーニングデータのラベルがクリーンかどうかを示す良い指標であることを示す。
理論的結果に基づいて,雑音分類器の予測に基づいてラベルを補正する新しいアルゴリズムを提案する。
ラベル補正アルゴリズムをディープニューラルネットワークのトレーニングや,複数の公開データセット上で優れたテスト性能を実現するトレーニングモデルに組み込む。
論文 参考訳(メタデータ) (2020-11-19T19:23:23Z) - EvidentialMix: Learning with Combined Open-set and Closed-set Noisy
Labels [30.268962418683955]
開集合ラベルと閉集合ラベルを組み合わせた雑音ラベル問題の新しい変種について検討する。
その結果,従来の最先端手法よりも優れた分類結果と特徴表現が得られた。
論文 参考訳(メタデータ) (2020-11-11T11:15:32Z) - Multi-Class Classification from Noisy-Similarity-Labeled Data [98.13491369929798]
雑音に類似したラベル付きデータのみから学習する方法を提案する。
ノイズ遷移行列を用いて、クリーンデータとノイズデータの間にクラス後確率をブリッジする。
雑音のないクラスラベルをインスタンスに割り当てる新しい学習システムを構築した。
論文 参考訳(メタデータ) (2020-02-16T05:10:21Z) - Particle Competition and Cooperation for Semi-Supervised Learning with
Label Noise [6.247917165799351]
The graph-based semi-supervised learning approach based on Particle competition and cooperation。
本稿では,ラベルノイズの存在に対するロバスト性を高めるために,新しい粒子競合・協調アルゴリズムを提案する。
ラベルなしノードの分類とラベルノイズによるノードの再分類を、ユニークなプロセスで行う。
論文 参考訳(メタデータ) (2020-02-12T19:44:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。