論文の概要: CLS: Cross Labeling Supervision for Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2202.08502v1
- Date: Thu, 17 Feb 2022 08:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 15:18:38.456452
- Title: CLS: Cross Labeling Supervision for Semi-Supervised Learning
- Title(参考訳): CLS:セミスーパービジョンラーニングのためのクロスラベル・スーパービジョン
- Authors: Yao Yao, Junyi Shen, Jin Xu, Bin Zhong, Li Xiao
- Abstract要約: Cross Labeling Supervision (CLS) は、典型的な擬似ラベル処理を一般化するフレームワークである。
CLSは擬似ラベルと相補ラベルの両方を作成でき、正と負の両方の学習をサポートする。
- 参考スコア(独自算出の注目度): 9.929229055862491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well known that the success of deep neural networks is greatly
attributed to large-scale labeled datasets. However, it can be extremely
time-consuming and laborious to collect sufficient high-quality labeled data in
most practical applications. Semi-supervised learning (SSL) provides an
effective solution to reduce the cost of labeling by simultaneously leveraging
both labeled and unlabeled data. In this work, we present Cross Labeling
Supervision (CLS), a framework that generalizes the typical pseudo-labeling
process. Based on FixMatch, where a pseudo label is generated from a
weakly-augmented sample to teach the prediction on a strong augmentation of the
same input sample, CLS allows the creation of both pseudo and complementary
labels to support both positive and negative learning. To mitigate the
confirmation bias of self-labeling and boost the tolerance to false labels, two
different initialized networks with the same structure are trained
simultaneously. Each network utilizes high-confidence labels from the other
network as additional supervision signals. During the label generation phase,
adaptive sample weights are assigned to artificial labels according to their
prediction confidence. The sample weight plays two roles: quantify the
generated labels' quality and reduce the disruption of inaccurate labels on
network training. Experimental results on the semi-supervised classification
task show that our framework outperforms existing approaches by large margins
on the CIFAR-10 and CIFAR-100 datasets.
- Abstract(参考訳): ディープニューラルネットワークの成功は、大規模ラベル付きデータセットによるところが大きいことが知られている。
しかし、ほとんどの実用的なアプリケーションで十分な高品質なラベル付きデータを集めるのに非常に時間がかかり、手間がかかる。
半教師付き学習(SSL)はラベル付きデータとラベルなしデータの両方を同時に活用することによりラベル付けコストを削減する効果的なソリューションを提供する。
本稿では,典型的な擬似ラベル処理を一般化するフレームワークであるCross Labeling Supervision (CLS)を紹介する。
弱いサンプルから擬似ラベルを生成し、同じ入力サンプルの強い強化について予測を教えるfixmatchに基づいて、clsは疑似ラベルと補完ラベルの両方を作成し、正の学習と負の学習の両方をサポートすることができる。
自己ラベルの確認バイアスを緩和し、偽ラベルに対する耐性を高めるために、同じ構造を持つ2つの異なる初期化ネットワークを同時に訓練する。
各ネットワークは、他のネットワークからの高信頼ラベルを追加の監視信号として利用する。
ラベル生成段階では、その予測信頼度に応じて適応的なサンプル重みを人工ラベルに割り当てる。
サンプルウェイトは、生成されたラベルの品質を定量化し、ネットワークトレーニングにおける不正確なラベルの破壊を低減する。
半教師付き分類タスクの実験結果から,CIFAR-10データセットとCIFAR-100データセットにおいて,我々のフレームワークが既存のアプローチよりも優れていることが示された。
関連論文リスト
- Generalized Semi-Supervised Learning via Self-Supervised Feature Adaptation [87.17768598044427]
従来の半教師付き学習は、ラベル付きデータとラベルなしデータの特徴分布が一貫したものであると仮定する。
本稿では,ラベル付きおよびラベルなしデータの分散によるSSL性能向上のための汎用フレームワークであるセルフ・スーパービジョン・フィーチャー・アダプテーション(SSFA)を提案する。
提案するSSFAは擬似ラベルベースのSSL学習者に適用可能であり,ラベル付き,ラベルなし,さらには目に見えない分布における性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-05-31T03:13:45Z) - Pseudo-Label Noise Suppression Techniques for Semi-Supervised Semantic
Segmentation [21.163070161951868]
半消費学習(SSL)は、教師なしデータをトレーニングに組み込むことで、大きなラベル付きデータセットの必要性を減らすことができる。
現在のSSLアプローチでは、初期教師付きトレーニングモデルを使用して、擬似ラベルと呼ばれる未ラベル画像の予測を生成する。
擬似ラベルノイズと誤りを3つのメカニズムで制御する。
論文 参考訳(メタデータ) (2022-10-19T09:46:27Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z) - Boosting Semi-Supervised Face Recognition with Noise Robustness [54.342992887966616]
本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
そこで我々は,gnが強化するロバストな学習能力に基づく,ノイズロバスト学習ラベリング(nroll)という,半教師付き顔認識ソリューションを開発した。
論文 参考訳(メタデータ) (2021-05-10T14:43:11Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Boosting the Performance of Semi-Supervised Learning with Unsupervised
Clustering [10.033658645311188]
学習中の間欠的にラベルを完全に無視することは,小サンプル体制における性能を著しく向上させることを示す。
本手法は,最先端のSSLアルゴリズムの高速化に有効であることを示す。
論文 参考訳(メタデータ) (2020-12-01T14:19:14Z) - PseudoSeg: Designing Pseudo Labels for Semantic Segmentation [78.35515004654553]
ラベルなしまたは弱いラベル付きデータを用いたトレーニングのための構造化された擬似ラベルを生成するための擬似ラベルの再設計を提案する。
提案手法の有効性を,低データと高データの両方において示す。
論文 参考訳(メタデータ) (2020-10-19T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。