論文の概要: SelfMatch: Combining Contrastive Self-Supervision and Consistency for
Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2101.06480v1
- Date: Sat, 16 Jan 2021 17:03:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 04:35:22.289690
- Title: SelfMatch: Combining Contrastive Self-Supervision and Consistency for
Semi-Supervised Learning
- Title(参考訳): SelfMatch: 半教師付き学習のためのコントラスト型セルフスーパービジョンと一貫性を組み合わせる
- Authors: Byoungjip Kim, Jinho Choo, Yeong-Dae Kwon, Seongho Joe, Seungjai Min,
Youngjune Gwon
- Abstract要約: SelfMatchは、対照的な自己監督学習と一貫性の正規化の力を組み合わせた半教師付き学習方法です。
私たちは、SelfMatchがCIFAR-10やSVHNなどの標準ベンチマークデータセットで最新の結果を達成することを実証しています。
- 参考スコア(独自算出の注目度): 8.265869765369166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces SelfMatch, a semi-supervised learning method that
combines the power of contrastive self-supervised learning and consistency
regularization. SelfMatch consists of two stages: (1) self-supervised
pre-training based on contrastive learning and (2) semi-supervised fine-tuning
based on augmentation consistency regularization. We empirically demonstrate
that SelfMatch achieves the state-of-the-art results on standard benchmark
datasets such as CIFAR-10 and SVHN. For example, for CIFAR-10 with 40 labeled
examples, SelfMatch achieves 93.19% accuracy that outperforms the strong
previous methods such as MixMatch (52.46%), UDA (70.95%), ReMixMatch (80.9%),
and FixMatch (86.19%). We note that SelfMatch can close the gap between
supervised learning (95.87%) and semi-supervised learning (93.19%) by using
only a few labels for each class.
- Abstract(参考訳): 本稿では,コントラスト型自己教師学習と整合性正規化を組み合わせた半教師付き学習手法であるSelfMatchを紹介する。
SelfMatchは,(1)コントラスト学習に基づく自己指導型事前学習,(2)強化整合性正規化に基づく半教師型微調整の2段階からなる。
我々は、CIFAR-10やSVHNのような標準ベンチマークデータセット上で、SelfMatchが最先端の結果を達成することを実証的に示す。
例えば、40のラベル付き例を持つCIFAR-10では、MixMatch (52.46%)、UDA (70.95%)、ReMixMatch (80.9%)、FixMatch (86.19%)といった従来の手法よりも優れた93.19%の精度を達成している。
教師付き学習 (95.87%) と半教師付き学習 (93.19%) のギャップを, 各クラスにわずかにラベルを付けることで埋めることができる。
関連論文リスト
- JointMatch: A Unified Approach for Diverse and Collaborative
Pseudo-Labeling to Semi-Supervised Text Classification [65.268245109828]
半教師付きテキスト分類(SSTC)は、ラベルのないデータを活用する能力によって注目を集めている。
擬似ラベルに基づく既存のアプローチは、擬似ラベルバイアスと誤り蓄積の問題に悩まされる。
我々は、最近の半教師付き学習からアイデアを統一することでこれらの課題に対処する、SSTCの総合的なアプローチであるJointMatchを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:43:35Z) - FreeMatch: Self-adaptive Thresholding for Semi-supervised Learning [46.95063831057502]
本稿では,モデルの学習状況に応じて,信頼度閾値を自己適応的に定義・調整するためのemphFreeMatchを提案する。
FreeMatchは、最新の最先端メソッドであるFlexMatchよりもtextbf5.78%、textbf13.59%、textbf1.28%のエラー率削減を実現している。
論文 参考訳(メタデータ) (2022-05-15T10:07:52Z) - Towards Semi-Supervised Deep Facial Expression Recognition with An
Adaptive Confidence Margin [92.76372026435858]
Ada-CM(Adaptive Confidence Margin)を学習し、ラベルのないすべてのデータを半教師付き深層表情認識に活用する。
すべてのラベルなしサンプルは、信頼スコアと適応的に学習された信頼マージンを比較して、2つのサブセットに分割される。
提案手法は最先端の性能,特に半教師付きベースラインを超越した性能を実現する。
論文 参考訳(メタデータ) (2022-03-23T11:43:29Z) - AdaMatch: A Unified Approach to Semi-Supervised Learning and Domain
Adaptation [38.510948869624194]
AdaMatchは、教師なしドメイン適応(UDA)、半教師付き学習(SSL)、半教師付きドメイン適応(SSDA)のタスクを統一する手法である。
広範にわたる実験的研究において、視覚分類タスクにおけるSSL、SSDA、UDAの各最先端技術との比較を行った。
AdaMatch は、DomainNet の UDA タスクの先行状態の精度をほぼ2倍にし、事前トレーニングで得られた先行状態の精度を6.4%上回っている。
論文 参考訳(メタデータ) (2021-06-08T23:39:12Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - AlphaMatch: Improving Consistency for Semi-supervised Learning with
Alpha-divergence [44.88886269629515]
半教師付き学習(SSL)は、ラベル付きデータとラベルなしデータの両方を併用することにより、よりデータ効率の高い機械学習への重要なアプローチである。
我々は、データポイントとそれらから派生した拡張データとのラベル一貫性を効率的に強化することにより、データ拡張を利用する効率的なSSL手法であるAlphaMatchを提案する。
論文 参考訳(メタデータ) (2020-11-23T22:43:45Z) - CoMatch: Semi-supervised Learning with Contrastive Graph Regularization [86.84486065798735]
CoMatchは、支配的なアプローチを統一する、新しい半教師付き学習手法である。
複数のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-11-23T02:54:57Z) - FixMatch: Simplifying Semi-Supervised Learning with Consistency and
Confidence [93.91751021370638]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルの性能を向上させる効果的な手段を提供する。
本稿では、整合正則化と擬似ラベル付けという2つの共通SSL手法の単純な組み合わせのパワーを実証する。
筆者らのアルゴリズムであるFixMatchは、まず、弱拡張未ラベル画像上のモデルの予測を用いて擬似ラベルを生成する。
論文 参考訳(メタデータ) (2020-01-21T18:32:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。