論文の概要: MutexMatch: Semi-supervised Learning with Mutex-based Consistency
Regularization
- arxiv url: http://arxiv.org/abs/2203.14316v1
- Date: Sun, 27 Mar 2022 14:28:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 13:36:37.174189
- Title: MutexMatch: Semi-supervised Learning with Mutex-based Consistency
Regularization
- Title(参考訳): mutexmatch: mutexベースの一貫性規則化による半教師付き学習
- Authors: Yue Duan, Zhen Zhao, Lei Qi, Lei Wang, Luping Zhou, Yinghuan Shi, Yang
Gao
- Abstract要約: ミューテックスをベースとした整合性正規化(Mutex)を提案し,信頼性の低いサンプルを新しい方法で活用する。
MutexMatchは、CIFAR-10、CIFAR-100、SVHN、STL-10、mini-ImageNetなど、複数のベンチマークデータセットで優れたパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 36.019086181632005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The core issue in semi-supervised learning (SSL) lies in how to effectively
leverage unlabeled data, whereas most existing methods tend to put a great
emphasis on the utilization of high-confidence samples yet seldom fully explore
the usage of low-confidence samples. In this paper, we aim to utilize
low-confidence samples in a novel way with our proposed mutex-based consistency
regularization, namely MutexMatch. Specifically, the high-confidence samples
are required to exactly predict "what it is" by conventional True-Positive
Classifier, while the low-confidence samples are employed to achieve a simpler
goal -- to predict with ease "what it is not" by True-Negative Classifier. In
this sense, we not only mitigate the pseudo-labeling errors but also make full
use of the low-confidence unlabeled data by consistency of dissimilarity
degree. MutexMatch achieves superior performance on multiple benchmark
datasets, i.e., CIFAR-10, CIFAR-100, SVHN, STL-10, and mini-ImageNet. More
importantly, our method further shows superiority when the amount of labeled
data is scarce, e.g., 92.23% accuracy with only 20 labeled data on CIFAR-10.
Code has been released at https://github.com/NJUyued/MutexMatch4SSL.
- Abstract(参考訳): 半教師付き学習(ssl)の核となる問題は、ラベルのないデータを効果的に活用する方法にあるが、既存の方法の多くは、信頼性の高いサンプルの利用に重点を置いている傾向がある。
本稿では,提案するmutexベースの一貫性規則化であるmutexmatchを用いて,低信頼サンプルを新しい方法で活用することを目的とする。
具体的には、信頼度の高いサンプルは、従来のTrue-Positive Classifierによって「何であるか」を正確に予測し、低信頼度サンプルは、True-Negative Classifierによって「何でないのか」を簡単に予測するために、より単純なゴールを達成するために使用される。
この意味で、擬似ラベル誤りを緩和するだけでなく、異種度の整合性によって低信頼なラベル付きデータをフル活用する。
MutexMatchは、CIFAR-10、CIFAR-100、SVHN、STL-10、mini-ImageNetなど、複数のベンチマークデータセットで優れたパフォーマンスを実現する。
さらに,CIFAR-10のラベル付きデータに対して,92.23%の精度でラベル付きデータの量が不足している場合に,さらに優位性を示す。
コードはhttps://github.com/NJUyued/MutexMatch4SSLでリリースされた。
関連論文リスト
- VCC-INFUSE: Towards Accurate and Efficient Selection of Unlabeled Examples in Semi-supervised Learning [1.0007051676618415]
既存の手法では、ラベルのないデータを効果的かつ効率的に利用できない。
本稿では,変分信頼度 (VCC) と影響Function-based Unlabeled Sample Elimination (INFUSE) の2つの手法を提案する。
提案手法は,複数のデータセットや設定において有効であり,誤り分類率を低減し,トレーニング時間を短縮する。
論文 参考訳(メタデータ) (2024-04-18T06:59:40Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Boosting Semi-Supervised Learning by Exploiting All Unlabeled Data [21.6350640726058]
半教師付き学習(SSL)は、大きなラベル付きデータセットへの依存を緩和する大きな可能性を秘めているため、大きな注目を集めている。
エントロピー平均損失(EML)と適応負学習(ANL)の2つの新しい手法を提案する。
これらのテクニックをFixMatchと統合し、シンプルながら強力なフレームワークであるFullMatchを開発します。
論文 参考訳(メタデータ) (2023-03-20T12:44:11Z) - FreeMatch: Self-adaptive Thresholding for Semi-supervised Learning [46.95063831057502]
本稿では,モデルの学習状況に応じて,信頼度閾値を自己適応的に定義・調整するためのemphFreeMatchを提案する。
FreeMatchは、最新の最先端メソッドであるFlexMatchよりもtextbf5.78%、textbf13.59%、textbf1.28%のエラー率削減を実現している。
論文 参考訳(メタデータ) (2022-05-15T10:07:52Z) - Towards Semi-Supervised Deep Facial Expression Recognition with An
Adaptive Confidence Margin [92.76372026435858]
Ada-CM(Adaptive Confidence Margin)を学習し、ラベルのないすべてのデータを半教師付き深層表情認識に活用する。
すべてのラベルなしサンプルは、信頼スコアと適応的に学習された信頼マージンを比較して、2つのサブセットに分割される。
提案手法は最先端の性能,特に半教師付きベースラインを超越した性能を実現する。
論文 参考訳(メタデータ) (2022-03-23T11:43:29Z) - OpenMatch: Open-set Consistency Regularization for Semi-supervised
Learning with Outliers [71.08167292329028]
我々はOpenMatchと呼ばれる新しいオープンセットセミスーパーバイザードラーニング(OSSL)アプローチを提案する。
OpenMatchは、1-vs-all(OVA)分類器に基づいた新規検出とFixMatchを統合する。
3つのデータセットで最先端のパフォーマンスを実現し、CIFAR10の未ラベルデータで見えないアウトリーチを検出する上で、完全な教師付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-28T23:57:15Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - FixMatch: Simplifying Semi-Supervised Learning with Consistency and
Confidence [93.91751021370638]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルの性能を向上させる効果的な手段を提供する。
本稿では、整合正則化と擬似ラベル付けという2つの共通SSL手法の単純な組み合わせのパワーを実証する。
筆者らのアルゴリズムであるFixMatchは、まず、弱拡張未ラベル画像上のモデルの予測を用いて擬似ラベルを生成する。
論文 参考訳(メタデータ) (2020-01-21T18:32:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。