論文の概要: ContraCluster: Learning to Classify without Labels by Contrastive
Self-Supervision and Prototype-Based Semi-Supervision
- arxiv url: http://arxiv.org/abs/2304.09369v1
- Date: Wed, 19 Apr 2023 01:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 15:46:11.177508
- Title: ContraCluster: Learning to Classify without Labels by Contrastive
Self-Supervision and Prototype-Based Semi-Supervision
- Title(参考訳): ContraCluster: 比較自己スーパービジョンとプロトタイプベースセミスーパービジョンによるラベルなしの分類学習
- Authors: Seongho Joe, Byoungjip Kim, Hoyoung Kang, Kyoungwon Park, Bogun Kim,
Jaeseon Park, Joonseok Lee, Youngjune Gwon
- Abstract要約: 本研究では,クラスタリングとコントラスト型自己教師学習の能力を組み合わせた教師なし画像分類手法であるContraClusterを提案する。
ContraClusterは、(1)コントラスト型自己監督型事前訓練(CPT)、(2)コントラスト型プロトタイプサンプリング(CPS)、(3)プロトタイプ型半教師型微調整(PB-SFT)の3段階からなる。
我々は、CIFAR-10、STL-10、ImageNet-10などの標準ベンチマークデータセットに対して、ContraClusterが新しい最先端結果を達成することを実証的に示す。
- 参考スコア(独自算出の注目度): 7.819942809508631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent advances in representation learning inspire us to take on the
challenging problem of unsupervised image classification tasks in a principled
way. We propose ContraCluster, an unsupervised image classification method that
combines clustering with the power of contrastive self-supervised learning.
ContraCluster consists of three stages: (1) contrastive self-supervised
pre-training (CPT), (2) contrastive prototype sampling (CPS), and (3)
prototype-based semi-supervised fine-tuning (PB-SFT). CPS can select highly
accurate, categorically prototypical images in an embedding space learned by
contrastive learning. We use sampled prototypes as noisy labeled data to
perform semi-supervised fine-tuning (PB-SFT), leveraging small prototypes and
large unlabeled data to further enhance the accuracy. We demonstrate
empirically that ContraCluster achieves new state-of-the-art results for
standard benchmark datasets including CIFAR-10, STL-10, and ImageNet-10. For
example, ContraCluster achieves about 90.8% accuracy for CIFAR-10, which
outperforms DAC (52.2%), IIC (61.7%), and SCAN (87.6%) by a large margin.
Without any labels, ContraCluster can achieve a 90.8% accuracy that is
comparable to 95.8% by the best supervised counterpart.
- Abstract(参考訳): 近年の表現学習の進歩は,教師なし画像分類課題の課題を原理的に解決するきっかけとなった。
本研究では,クラスタリングとコントラスト型自己教師学習の能力を組み合わせた教師なし画像分類手法であるContraClusterを提案する。
コントラクラスターは,(1)コントラスト型自己教師付き事前訓練(cpt),(2)コントラスト型プロトタイプサンプリング(cps),(3)プロトタイプ型半教師付き微調整(pb-sft)の3段階からなる。
CPSは、コントラスト学習によって学習された埋め込み空間において、高度に正確で分類学的にプロトタイプ画像を選択することができる。
サンプルプロトタイプをノイズラベル付きデータとして,半教師付き微調整(PB-SFT)を行い,小型プロトタイプと大規模未ラベルデータを活用し,精度の向上を図る。
我々は、contraclusterがcifar-10、stl-10、imagenet-10を含む標準ベンチマークデータセットの新しい最先端結果を達成することを実証的に証明する。
例えば、ContraClusterはCIFAR-10の約90.8%の精度でDAC(52.2%)、ICC(61.7%)、SCAN(87.6%)を上回っている。
ラベルがなければ、contraclusterは90.8%の精度を達成できる。
関連論文リスト
- 3C: Confidence-Guided Clustering and Contrastive Learning for Unsupervised Person Re-Identification [10.173539278449262]
教師なし人物再識別(Re-ID)は、非ラベルデータセットでクロスカメラ検索機能を備えた機能ネットワークを学習することを目的としている。
教師なしのRe-IDに対して,信頼誘導型クラスタリングとコントラスト学習(3C)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-18T13:14:20Z) - Rethinking cluster-conditioned diffusion models for label-free image synthesis [1.4624458429745086]
拡散に基づく画像生成モデルは、地上の真理ラベルに条件付けされた場合の画質を向上させることができる。
クラスタ数やクラスタリング手法など,個々のクラスタリング決定要因が画像合成に与える影響について検討する。
論文 参考訳(メタデータ) (2024-03-01T14:47:46Z) - C3: Cross-instance guided Contrastive Clustering [8.953252452851862]
クラスタリングは、事前に定義されたラベルを使わずに、類似したデータサンプルをクラスタに収集するタスクである。
我々は,新しいコントラストクラスタリング手法であるクロスインスタンスガイドコントラストクラスタリング(C3)を提案する。
提案手法は、ベンチマークコンピュータビジョンデータセット上で最先端のアルゴリズムより優れている。
論文 参考訳(メタデータ) (2022-11-14T06:28:07Z) - Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - Generalized Supervised Contrastive Learning [3.499054375230853]
ラベル類似度と潜在類似度との相互エントロピーを測定する一般化された教師付きコントラスト損失を導入する。
既存のコントラスト学習フレームワークと比較して,汎用監視コントラスト学習(Generalized Supervised Contrastive Learning, GenSCL)という,カスタマイズされたフレームワークを構築している。
GenSCLはImageNetで77.3%というトップ1の精度を達成しており、従来の教師付きコントラスト学習よりも4.1%改善している。
論文 参考訳(メタデータ) (2022-06-01T10:38:21Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - Contrastive Clustering [57.71729650297379]
本稿では,インスタンスレベルのコントラスト学習を明示的に行うContrastive Clustering (CC)を提案する。
特にCCは、CIFAR-10(CIFAR-100)データセット上で0.705(0.431)のNMIを達成しており、最高のベースラインと比較して最大19%(39%)のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-09-21T08:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。