論文の概要: Revisiting Contrastive Learning for Few-Shot Classification
- arxiv url: http://arxiv.org/abs/2101.11058v1
- Date: Tue, 26 Jan 2021 19:58:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 03:10:45.023660
- Title: Revisiting Contrastive Learning for Few-Shot Classification
- Title(参考訳): 少数のショット分類のためのコントラスト学習の再考
- Authors: Orchid Majumder, Avinash Ravichandran, Subhransu Maji, Marzia Polito,
Rahul Bhotika, Stefano Soatto
- Abstract要約: インスタンス識別に基づくコントラスト学習は,視覚表現の自己教師あり学習の指導的アプローチとして現れてきた。
本稿では,インスタンス識別に基づくコントラスト型自己教師付き学習フレームワークにおいて,新しいタスクを一般化する表現を学習する方法を示す。
提案手法は,cidを用いて訓練された普遍的埋め込みと組み合わせて,挑戦的メタデータセットベンチマークにおいて最先端アルゴリズムよりも優れる新しいモデル選択アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 74.78397993160583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Instance discrimination based contrastive learning has emerged as a leading
approach for self-supervised learning of visual representations. Yet, its
generalization to novel tasks remains elusive when compared to representations
learned with supervision, especially in the few-shot setting. We demonstrate
how one can incorporate supervision in the instance discrimination based
contrastive self-supervised learning framework to learn representations that
generalize better to novel tasks. We call our approach CIDS (Contrastive
Instance Discrimination with Supervision). CIDS performs favorably compared to
existing algorithms on popular few-shot benchmarks like Mini-ImageNet or
Tiered-ImageNet. We also propose a novel model selection algorithm that can be
used in conjunction with a universal embedding trained using CIDS to outperform
state-of-the-art algorithms on the challenging Meta-Dataset benchmark.
- Abstract(参考訳): インスタンス識別に基づくコントラスト学習は,視覚表現の自己教師あり学習の指導的アプローチとして現れてきた。
しかし、その新しいタスクへの一般化は、特に数ショット設定において、監督で学んだ表現と比較すると、わかりにくいままである。
インスタンス差別に基づく対照的自己監督学習フレームワークに監督を組み込むことで、新しいタスクに一般化する表現を学習する方法を実証する。
当社のアプローチをCIDS(Contrastive Instance Discrimination with Supervision)と呼んでいる。
CIDSは、Mini-ImageNetやTiered-ImageNetのような人気のある数ショットベンチマークの既存のアルゴリズムと比較して有利に実行されます。
また,cidを用いてトレーニングされた普遍埋め込みと組み合わせて,挑戦的メタデータセットベンチマークにおいて最先端アルゴリズムを上回って利用できる新しいモデル選択アルゴリズムを提案する。
- 全文 参考訳へのリンク
関連論文リスト
- An Empirical Investigation of Representation Learning for Imitation [76.48784376425911]
視覚、強化学習、NLPにおける最近の研究は、補助的な表現学習の目的が、高価なタスク固有の大量のデータの必要性を減らすことを示している。
本稿では,表現学習アルゴリズムを構築するためのモジュラーフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-16T11:23:42Z) - A Practical Contrastive Learning Framework for Single Image
Super-Resolution [80.99419678572869]
単一画像超解像(SISR)のための新しいコントラスト学習フレームワークを提案する。
SISRの最先端アプローチよりも0.21dBの顕著な向上を示した。
論文 参考訳(メタデータ) (2021-11-27T15:42:12Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。