論文の概要: Twin Contrastive Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2303.06930v1
- Date: Mon, 13 Mar 2023 08:53:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 15:54:53.373397
- Title: Twin Contrastive Learning with Noisy Labels
- Title(参考訳): 雑音ラベルを用いた双対コントラスト学習
- Authors: Zhizhong Huang and Junping Zhang and Hongming Shan
- Abstract要約: 我々は、頑健な表現を学習し、分類のためのノイズラベルを処理する、新しい双子のコントラスト学習モデルTCLを提案する。
TCLは、CIFAR-10で90%ノイズラベルで7.5%改善した。
- 参考スコア(独自算出の注目度): 45.31997043789471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning from noisy data is a challenging task that significantly degenerates
the model performance. In this paper, we present TCL, a novel twin contrastive
learning model to learn robust representations and handle noisy labels for
classification. Specifically, we construct a Gaussian mixture model (GMM) over
the representations by injecting the supervised model predictions into GMM to
link label-free latent variables in GMM with label-noisy annotations. Then, TCL
detects the examples with wrong labels as the out-of-distribution examples by
another two-component GMM, taking into account the data distribution. We
further propose a cross-supervision with an entropy regularization loss that
bootstraps the true targets from model predictions to handle the noisy labels.
As a result, TCL can learn discriminative representations aligned with
estimated labels through mixup and contrastive learning. Extensive experimental
results on several standard benchmarks and real-world datasets demonstrate the
superior performance of TCL. In particular, TCL achieves 7.5\% improvements on
CIFAR-10 with 90\% noisy label -- an extremely noisy scenario. The source code
is available at \url{https://github.com/Hzzone/TCL}.
- Abstract(参考訳): ノイズの多いデータから学ぶことは、モデルのパフォーマンスを著しく劣化させる難しいタスクです。
本稿では,ロバスト表現を学習し,分類のための雑音ラベルを扱うための,新しい双対コントラスト学習モデルtclを提案する。
具体的には、GMMに教師付きモデル予測を注入し、GMM内のラベルなし潜伏変数をラベルなしアノテーションでリンクすることにより、表現上のガウス混合モデル(GMM)を構築する。
次にTCLは、データ分布を考慮した別の2成分GMMにより、間違ったラベルの例を配布外例として検出する。
さらに,モデル予測から真の目標をブートストラップしてノイズラベルを処理するエントロピー正規化損失を伴うクロススーパービジョンを提案する。
その結果、tclはミックスアップとコントラスト学習を通じて推定ラベルに合わせた識別表現を学習できる。
いくつかの標準ベンチマークと実世界のデータセットにおける広範囲な実験結果がtclの優れた性能を示している。
特にTCLは、CIFAR-10の7.5\%の改善を90%のノイズラベルで達成している。
ソースコードは \url{https://github.com/Hzzone/TCL} で入手できる。
関連論文リスト
- Exploring Beyond Logits: Hierarchical Dynamic Labeling Based on Embeddings for Semi-Supervised Classification [49.09505771145326]
モデル予測に依存しない階層型動的ラベル付け(HDL)アルゴリズムを提案し,画像埋め込みを用いてサンプルラベルを生成する。
本手法は,半教師付き学習における擬似ラベル生成のパラダイムを変える可能性がある。
論文 参考訳(メタデータ) (2024-04-26T06:00:27Z) - Label Denoising through Cross-Model Agreement [43.5145547124009]
ノイズのあるラベルを記憶することはモデルの学習に影響を与え、準最適性能をもたらす可能性がある。
雑音ラベルから堅牢な機械学習モデルを学習するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-27T00:31:04Z) - Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - NorMatch: Matching Normalizing Flows with Discriminative Classifiers for
Semi-Supervised Learning [8.749830466953584]
Semi-Supervised Learning (SSL)は、小さなラベル付きセットと大量のラベルなしデータを使ってモデルを学習することを目的としている。
この作業では、NorMatchというSSLの新しいフレームワークを紹介します。
数値的および視覚的な結果を通して、NorMatchはいくつかのデータセットで最先端のパフォーマンスを達成することを実証する。
論文 参考訳(メタデータ) (2022-11-17T15:39:18Z) - Leveraging Instance Features for Label Aggregation in Programmatic Weak
Supervision [75.1860418333995]
Programmatic Weak Supervision (PWS) は、トレーニングラベルを効率的に合成するための広く普及したパラダイムとして登場した。
PWSのコアコンポーネントはラベルモデルであり、複数のノイズ管理ソースの出力をラベル関数として集約することで、真のラベルを推論する。
既存の統計ラベルモデルは一般的にLFの出力のみに依存し、基礎となる生成過程をモデル化する際のインスタンスの特徴を無視している。
論文 参考訳(メタデータ) (2022-10-06T07:28:53Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Gaussian Mixture Variational Autoencoder with Contrastive Learning for
Multi-Label Classification [27.043136219527767]
本稿では,新しいコントラスト学習促進型マルチラベル予測モデルを提案する。
教師付き環境でのコントラスト学習を用いることで,ラベル情報を効果的に活用することができる。
学習した埋め込みがラベルとラベルの相互作用の解釈に洞察を与えることを示す。
論文 参考訳(メタデータ) (2021-12-02T04:23:34Z) - OpenMatch: Open-set Consistency Regularization for Semi-supervised
Learning with Outliers [71.08167292329028]
我々はOpenMatchと呼ばれる新しいオープンセットセミスーパーバイザードラーニング(OSSL)アプローチを提案する。
OpenMatchは、1-vs-all(OVA)分類器に基づいた新規検出とFixMatchを統合する。
3つのデータセットで最先端のパフォーマンスを実現し、CIFAR10の未ラベルデータで見えないアウトリーチを検出する上で、完全な教師付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-28T23:57:15Z) - Training image classifiers using Semi-Weak Label Data [26.04162590798731]
多重インスタンス学習(MIL)では、弱ラベルがバッグレベルで提供され、存在/存在情報のみが知られる。
本稿では,この問題を軽減するため,新たな半弱ラベル学習パラダイムを提案する。
半弱ラベルから学習する問題に対処する2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-19T03:06:07Z) - GANs for learning from very high class conditional noisy labels [1.6516902135723865]
我々は、GAN(Generative Adversarial Networks)を用いて、バイナリ分類のためのクラス条件付きラベルノイズ(CCN)ロバストなスキームを設計する。
まず、ノイズラベル付きデータと0.1%または1%クリーンラベルから正しいラベル付きデータポイントのセットを生成する。
論文 参考訳(メタデータ) (2020-10-19T15:01:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。