論文の概要: CoDiM: Learning with Noisy Labels via Contrastive Semi-Supervised
Learning
- arxiv url: http://arxiv.org/abs/2111.11652v1
- Date: Tue, 23 Nov 2021 04:56:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 03:18:48.914335
- Title: CoDiM: Learning with Noisy Labels via Contrastive Semi-Supervised
Learning
- Title(参考訳): CoDiM:Contrastive Semi-Supervised Learningによるノイズラベルによる学習
- Authors: Xin Zhang, Zixuan Liu, Kaiwen Xiao, Tian Shen, Junzhou Huang, Wei
Yang, Dimitris Samaras, Xiao Han
- Abstract要約: ノイズラベル学習、半教師付き学習、コントラスト学習は、アノテーションコストの削減を必要とする学習プロセスを設計するための3つの異なる戦略である。
本稿では,コントラシブ・セミスーパーバイズド・ラーニング・アルゴリズムであるCSSLと,ノイズラベルを用いた学習のための新しいアルゴリズムであるCoDiMを提案する。
- 参考スコア(独自算出の注目度): 58.107679606345165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Labels are costly and sometimes unreliable. Noisy label learning,
semi-supervised learning, and contrastive learning are three different
strategies for designing learning processes requiring less annotation cost.
Semi-supervised learning and contrastive learning have been recently
demonstrated to improve learning strategies that address datasets with noisy
labels. Still, the inner connections between these fields as well as the
potential to combine their strengths together have only started to emerge. In
this paper, we explore further ways and advantages to fuse them. Specifically,
we propose CSSL, a unified Contrastive Semi-Supervised Learning algorithm, and
CoDiM (Contrastive DivideMix), a novel algorithm for learning with noisy
labels. CSSL leverages the power of classical semi-supervised learning and
contrastive learning technologies and is further adapted to CoDiM, which learns
robustly from multiple types and levels of label noise. We show that CoDiM
brings consistent improvements and achieves state-of-the-art results on
multiple benchmarks.
- Abstract(参考訳): ラベルは費用がかかり、時には信頼できない。
雑音を伴うラベル学習、半教師付き学習、コントラスト学習は、アノテーションコストの少ない学習プロセスを設計するための3つの異なる戦略である。
半教師付き学習とコントラスト学習は、最近、ノイズラベル付きデータセットに対処する学習戦略を改善するために実証されている。
それでも、これらのフィールド間の内部接続と、それらの強みを結合するポテンシャルは、わずかに現れ始めた。
本稿では,これらを融合する方法と利点について検討する。
具体的には,コントラスト半教師付き学習アルゴリズムであるcsslと,ノイズラベルを用いた新しい学習アルゴリズムであるcodim(contrastive dividemix)を提案する。
CSSLは、古典的な半教師付き学習技術とコントラスト学習技術の力を活用し、複数のタイプのラベルノイズから堅牢に学習するCoDiMにさらに適応している。
我々はCoDiMが一貫した改善をもたらし、複数のベンチマークで最先端の結果を得ることを示す。
関連論文リスト
- Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - Multi-Label Knowledge Distillation [86.03990467785312]
本稿では,新しい多ラベル知識蒸留法を提案する。
一方、マルチラベル学習問題をバイナリ分類問題に分割することにより、ロジットからの情報的意味知識を利用する。
一方,ラベルワイド埋め込みの構造情報を活用することにより,学習した特徴表現の識別性を向上する。
論文 参考訳(メタデータ) (2023-08-12T03:19:08Z) - Unleashing the Potential of Regularization Strategies in Learning with
Noisy Labels [65.92994348757743]
クロスエントロピー損失を用いた単純なベースラインと、広く使われている正規化戦略を組み合わせることで、最先端の手法より優れていることを示す。
この結果から,正規化戦略の組み合わせは,ノイズラベルを用いた学習の課題に対処する上で,複雑なアルゴリズムよりも効果的であることが示唆された。
論文 参考訳(メタデータ) (2023-07-11T05:58:20Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Co-learning: Learning from Noisy Labels with Self-supervision [28.266156561454327]
自己教師付き学習はラベルのない状態で機能し、ノイズラベルの負の影響を排除します。
教師付き学習と自己監督型学習の両方の視点で協調学習を行うことで、ノイズラベルを用いた学習のためのコラーニングという、シンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2021-08-05T06:20:51Z) - Learning active learning at the crossroads? evaluation and discussion [0.03807314298073299]
アクティブラーニングは、人間の専門家がラベルを付けるのに役立つサンプルを予測することで、アノテーションコストを削減することを目指しています。
常にすべてのアプリケーションで他のすべてを上回る最高のアクティブ学習戦略はありません。
本稿では,最近のメタ学習アルゴリズムとマージンサンプリングを用いて学習した戦略を20のデータセットで比較したベンチマーク結果を示す。
論文 参考訳(メタデータ) (2020-12-16T10:35:43Z) - Combating noisy labels by agreement: A joint training method with
co-regularization [27.578738673827658]
トレーニング中の2つのネットワークの多様性を低減することを目的とした,JoCoRと呼ばれる堅牢な学習パラダイムを提案する。
ノイズラベルを用いた学習において,JoCoRは最先端の多くのアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-05T16:42:41Z) - DivideMix: Learning with Noisy Labels as Semi-supervised Learning [111.03364864022261]
ノイズラベルを学習するためのフレームワークであるDivideMixを提案する。
複数のベンチマークデータセットの実験は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-18T06:20:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。