論文の概要: In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2101.06329v2
- Date: Thu, 18 Mar 2021 04:42:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 11:24:21.900516
- Title: In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning
- Title(参考訳): in defense of pseudo-labeling: an uncertainty-aware pseudo-label selection framework for semi-supervised learning
- Authors: Mamshad Nayeem Rizve, Kevin Duarte, Yogesh S Rawat, Mubarak Shah
- Abstract要約: Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 53.1047775185362
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The recent research in semi-supervised learning (SSL) is mostly dominated by
consistency regularization based methods which achieve strong performance.
However, they heavily rely on domain-specific data augmentations, which are not
easy to generate for all data modalities. Pseudo-labeling (PL) is a general SSL
approach that does not have this constraint but performs relatively poorly in
its original formulation. We argue that PL underperforms due to the erroneous
high confidence predictions from poorly calibrated models; these predictions
generate many incorrect pseudo-labels, leading to noisy training. We propose an
uncertainty-aware pseudo-label selection (UPS) framework which improves pseudo
labeling accuracy by drastically reducing the amount of noise encountered in
the training process. Furthermore, UPS generalizes the pseudo-labeling process,
allowing for the creation of negative pseudo-labels; these negative
pseudo-labels can be used for multi-label classification as well as negative
learning to improve the single-label classification. We achieve strong
performance when compared to recent SSL methods on the CIFAR-10 and CIFAR-100
datasets. Also, we demonstrate the versatility of our method on the video
dataset UCF-101 and the multi-label dataset Pascal VOC.
- Abstract(参考訳): 半教師付き学習(SSL)の最近の研究は、高いパフォーマンスを実現する一貫性の正規化に基づく手法が主である。
しかし、すべてのデータモダリティに対して簡単には生成できないドメイン固有のデータ拡張に大きく依存しています。
Pseudo-labeling (PL) は、この制約を持たない一般的なSSLアプローチである。
これらの予測は多くの誤った擬似ラベルを生成し、騒がしいトレーニングへと繋がる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
さらに、upsは偽ラベル処理を一般化し、負の偽ラベルを作成することが可能であり、これらの負の偽ラベルは、複数のラベルの分類や負の学習に使用して、シングルラベルの分類を改善することができる。
CIFAR-10 および CIFAR-100 データセットにおける最近のSSL 手法と比較して,高い性能を実現する。
また,ビデオデータセット UCF-101 とマルチラベルデータセット Pascal VOC に対して,本手法の有効性を示す。
関連論文リスト
- Learning Label Refinement and Threshold Adjustment for Imbalanced Semi-Supervised Learning [6.904448748214652]
半教師付き学習アルゴリズムは、不均衡なトレーニングデータに晒された場合、うまく機能しない。
Validation Data(SEVAL)に基づく擬似ラベル最適化によるセミ教師あり学習について紹介する。
SEVALは、擬似ラベルの精度を改善して特定のタスクに適応し、クラスごとに擬似ラベルの正確性を保証する。
論文 参考訳(メタデータ) (2024-07-07T13:46:22Z) - A Channel-ensemble Approach: Unbiased and Low-variance Pseudo-labels is Critical for Semi-supervised Classification [61.473485511491795]
半教師付き学習(SSL)はコンピュータビジョンにおける実践的な課題である。
Pseudo-label (PL) メソッド、例えば FixMatch や FreeMatch は SSL で State of The Art (SOTA) のパフォーマンスを取得する。
本稿では,複数の下位PLを理論的に保証された非偏りと低分散のPLに集約する,軽量なチャネルベースアンサンブル法を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:49:37Z) - Boosting Semi-Supervised Learning by bridging high and low-confidence
predictions [4.18804572788063]
Pseudo-labelingは半教師あり学習(SSL)において重要な技術である
ReFixMatchと呼ばれる新しい手法を提案し、これはトレーニング中にラベルなしのデータをすべて活用することを目的としている。
論文 参考訳(メタデータ) (2023-08-15T00:27:18Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - InPL: Pseudo-labeling the Inliers First for Imbalanced Semi-supervised
Learning [34.062061310242385]
不均衡半教師付き学習(SSL)のための疑似ラベルの新しい視点を提案する。
未表示のサンプルが「流通中」か「流通外」かを測定する。
実験により、我々のエネルギーベース擬似ラベル法である textbfInPL が、不均衡なSSLベンチマークにおいて信頼性ベースの手法よりも著しく優れていることが示された。
論文 参考訳(メタデータ) (2023-03-13T16:45:41Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Boosting Semi-Supervised Learning with Contrastive Complementary
Labeling [11.851898765002334]
一般的なアプローチは擬似ラベル作成であり、信頼度の高いラベル付きデータに対してのみ擬似ラベルを生成する。
信頼度が低い擬似ラベルを持つデータは、トレーニングプロセスにまだ有効である可能性があることを強調する。
そこで本研究では,多数の信頼な負対を構成する新しいコントラスト補完ラベリング法を提案する。
論文 参考訳(メタデータ) (2022-12-13T15:25:49Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Distribution Aligning Refinery of Pseudo-label for Imbalanced
Semi-supervised Learning [126.31716228319902]
Pseudo-label (DARP) アルゴリズムの分散アライメント・リファナリーを開発する。
DARPは最先端のSSLスキームと有効かつ効率的に互換性があることを示す。
論文 参考訳(メタデータ) (2020-07-17T09:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。