論文の概要: Semi-supervised Contrastive Learning with Similarity Co-calibration
- arxiv url: http://arxiv.org/abs/2105.07387v1
- Date: Sun, 16 May 2021 09:13:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 07:17:38.828192
- Title: Semi-supervised Contrastive Learning with Similarity Co-calibration
- Title(参考訳): 類似性を考慮した半教師付きコントラスト学習
- Authors: Yuhang Zhang and Xiaopeng Zhang and Robert.C.Qiu and Jie Li and
Haohang Xu and Qi Tian
- Abstract要約: SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
- 参考スコア(独自算出の注目度): 72.38187308270135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semi-supervised learning acts as an effective way to leverage massive
unlabeled data. In this paper, we propose a novel training strategy, termed as
Semi-supervised Contrastive Learning (SsCL), which combines the well-known
contrastive loss in self-supervised learning with the cross entropy loss in
semi-supervised learning, and jointly optimizes the two objectives in an
end-to-end way. The highlight is that different from self-training based
semi-supervised learning that conducts prediction and retraining over the same
model weights, SsCL interchanges the predictions over the unlabeled data
between the two branches, and thus formulates a co-calibration procedure, which
we find is beneficial for better prediction and avoid being trapped in local
minimum. Towards this goal, the contrastive loss branch models pairwise
similarities among samples, using the nearest neighborhood generated from the
cross entropy branch, and in turn calibrates the prediction distribution of the
cross entropy branch with the contrastive similarity. We show that SsCL
produces more discriminative representation and is beneficial to few shot
learning. Notably, on ImageNet with ResNet50 as the backbone, SsCL achieves
60.2% and 72.1% top-1 accuracy with 1% and 10% labeled samples, respectively,
which significantly outperforms the baseline, and is better than previous
semi-supervised and self-supervised methods.
- Abstract(参考訳): 半教師付き学習は、大量のラベルのないデータを活用する効果的な方法として機能する。
本稿では,半教師付きコントラスト学習(SsCL)と呼ばれる,自己教師型学習におけるよく知られたコントラスト学習の損失と,半教師型学習におけるクロスエントロピー損失を組み合わせ,両目標をエンドツーエンドで協調的に最適化する新たな学習戦略を提案する。
ssclは,同じモデル重みで予測と再トレーニングを行う自己学習ベースの半教師付き学習とは異なり,2つのブランチ間のラベルなしデータ上での予測を交換し,より優れた予測と局所的最小化を避けるために有効な共校手順を定式化する。
この目的に向けて、対比損失枝は、クロスエントロピー分岐から生成した最も近い近傍を用いて、サンプル間のペアワイズ類似性をモデル化し、その対比類似度でクロスエントロピー分岐の予測分布を校正する。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
特に、ResNet50をバックボーンとしたImageNetでは、SsCLは、それぞれ1%と10%のラベル付きサンプルで、60.2%と72.1%のトップ-1の精度を達成した。
関連論文リスト
- Bayesian Learning-driven Prototypical Contrastive Loss for Class-Incremental Learning [42.14439854721613]
本稿では,クラス増分学習シナリオに特化して,ベイズ学習駆動型コントラスト損失(BLCL)を持つプロトタイプネットワークを提案する。
提案手法は,ベイズ学習手法を用いて,クロスエントロピーとコントラスト損失関数のバランスを動的に適用する。
論文 参考訳(メタデータ) (2024-05-17T19:49:02Z) - Decoupled Contrastive Learning for Long-Tailed Recognition [58.255966442426484]
Supervised Contrastive Loss (SCL) は視覚表現学習で人気がある。
ロングテール認識のシナリオでは、各クラスのサンプル数が不均衡である場合、2種類の正のサンプルを同じように扱うと、カテゴリー内距離に対するバイアス最適化が導かれる。
そこで我々は,尾級の低表現を緩和するために,頭級から尾級へ知識を伝達するためのパッチベースの自己蒸留法を提案する。
論文 参考訳(メタデータ) (2024-03-10T09:46:28Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Rethinking Prototypical Contrastive Learning through Alignment,
Uniformity and Correlation [24.794022951873156]
我々は、アライメント、均一性、相関(PAUC)を通して、プロトタイプ表現を学ぶことを提案する。
具体的には,(1)正の原型から埋め込みを抽出するアライメント損失,(2)原型レベルの特徴を均一に分配するアライメント損失,(3)原型レベルの特徴間の多様性と識別性を増大させる相関損失を補正する。
論文 参考訳(メタデータ) (2022-10-18T22:33:12Z) - Hierarchical Semi-Supervised Contrastive Learning for
Contamination-Resistant Anomaly Detection [81.07346419422605]
異常検出は、通常のデータ分布から逸脱したサンプルを特定することを目的としている。
コントラスト学習は、異常の効果的な識別を可能にする表現のサンプル化に成功している。
汚染耐性異常検出のための新しい階層型半教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-24T18:49:26Z) - Is it all a cluster game? -- Exploring Out-of-Distribution Detection
based on Clustering in the Embedding Space [7.856998585396422]
新しい入力がトレーニング分布と大きく異なるタイミングを決定するためには、ディープニューラルネットワークの安全性クリティカルな応用が不可欠である。
埋め込み空間におけるクラスタの構造と分離について検討し、教師付きコントラスト学習が十分に分離されたクラスタに繋がることを示す。
異なるトレーニング方法、クラスタリング戦略、距離メトリクス、しきい値設定アプローチの分析において、明確な勝者は存在しない。
論文 参考訳(メタデータ) (2022-03-16T11:22:23Z) - S5CL: Unifying Fully-Supervised, Self-Supervised, and Semi-Supervised
Learning Through Hierarchical Contrastive Learning [0.22940141855172028]
完全教師付き,自己教師型,半教師型学習のための統合フレームワークであるS5CLを紹介する。
ラベル付き、ラベルなし、擬似ラベル付き画像に対して定義された3つの対照的な損失により、S5CLは距離関係の階層を反映した特徴表現を学習できる。
論文 参考訳(メタデータ) (2022-03-14T17:10:01Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。