論文の概要: Self-Supervised Class-Cognizant Few-Shot Classification
- arxiv url: http://arxiv.org/abs/2202.08149v1
- Date: Tue, 15 Feb 2022 15:28:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 14:34:24.047410
- Title: Self-Supervised Class-Cognizant Few-Shot Classification
- Title(参考訳): 自己監督型クラスコグニザントFewショット分類
- Authors: Ojas Kishore Shirekar, Hadi Jamali-Rad
- Abstract要約: 本稿では,ラベルなしデータからの教師なし学習に焦点を当てる。
我々は,クラスレベルの認識を取り入れた自己指導型事前学習におけるコントラスト学習の導入に関する最近の研究を拡張した。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised learning is argued to be the dark matter of human intelligence.
To build in this direction, this paper focuses on unsupervised learning from an
abundance of unlabeled data followed by few-shot fine-tuning on a downstream
classification task. To this aim, we extend a recent study on adopting
contrastive learning for self-supervised pre-training by incorporating
class-level cognizance through iterative clustering and re-ranking and by
expanding the contrastive optimization loss to account for it. To our
knowledge, our experimentation both in standard and cross-domain scenarios
demonstrate that we set a new state-of-the-art (SoTA) in (5-way, 1 and 5-shot)
settings of standard mini-ImageNet benchmark as well as the (5-way, 5 and
20-shot) settings of cross-domain CDFSL benchmark. Our code and experimentation
can be found in our GitHub repository: https://github.com/ojss/c3lr.
- Abstract(参考訳): 教師なし学習は人間の知性の暗黒物質であると主張する。
そこで本研究では,大量のラベル付きデータからの教師なし学習と,下流の分類タスクにおける数発の微調整に焦点をあてる。
本研究では,自己教師付き事前学習へのコントラスト学習の適用について,反復的クラスタリングと再ランク付けを通じてクラスレベルの認識を取り入れ,コントラスト最適化損失を考慮に入れた最近の研究を展開する。
我々の知る限り、私たちは標準およびクロスドメインシナリオの両方において、標準のmini-ImageNetベンチマークの(5-way, 1, 5-shot)設定と、クロスドメインCDFSLベンチマークの(5-way, 5, 20-shot)設定に新しい最先端(SoTA)を設定することを実証しています。
私たちのコードと実験はgithubリポジトリで確認できます。
関連論文リスト
- BECLR: Batch Enhanced Contrastive Few-Shot Learning [1.450405446885067]
教師なしの少数ショット学習は、トレーニング時にアノテーションへの依存を捨てることで、このギャップを埋めようとしている。
本稿では,高度に分離可能な潜在表現空間を促進するために,新しい動的クラスタ mEmory (DyCE) モジュールを提案する。
そして、数ショットの推論段階でサンプルバイアスの問題に取り組みます。
論文 参考訳(メタデータ) (2024-02-04T10:52:43Z) - Self-Attention Message Passing for Contrastive Few-Shot Learning [2.1485350418225244]
教師なしの少ショット学習は、機械と人間のギャップを埋めることである。
本稿では,U-FSL事前学習のための自己注意型メッセージパスコントラスト学習手法(SAMP-CLR)を提案する。
また,OpT-Tune をベースとした最適トランスポート(OT)に基づく微調整戦略を提案し,タスク認識を新しいエンドツーエンドの非教師なし小ショット分類フレームワーク (SAMPTransfer) に効率的に誘導する。
論文 参考訳(メタデータ) (2022-10-12T15:57:44Z) - Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - Novel Class Discovery in Semantic Segmentation [104.30729847367104]
セマンティックにおける新しいクラス発見(NCDSS)について紹介する。
ラベル付き非結合クラスの集合から事前の知識を与えられた新しいクラスを含むラベル付きイメージのセグメンテーションを目的としている。
NCDSSでは、オブジェクトと背景を区別し、画像内の複数のクラスの存在を処理する必要があります。
本稿では,エントロピーに基づく不確実性モデリングと自己学習(EUMS)フレームワークを提案し,ノイズの多い擬似ラベルを克服する。
論文 参考訳(メタデータ) (2021-12-03T13:31:59Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Few-Shot Segmentation Without Meta-Learning: A Good Transductive
Inference Is All You Need? [34.95314059362982]
数ショットのセグメンテーションタスクにおける推論の実行方法が性能に重大な影響を及ぼすことを示す。
与えられたクエリー画像に対するトランスダクティブ推論を導入し、ラベルなし画素の統計情報を活用する。
提案手法は,5分と10秒のシナリオにおいて,最先端よりも約5%と6%の改善をもたらすことを示す。
論文 参考訳(メタデータ) (2020-12-11T07:11:19Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。