論文の概要: Boosting few-shot classification with view-learnable contrastive
learning
- arxiv url: http://arxiv.org/abs/2107.09242v1
- Date: Tue, 20 Jul 2021 03:13:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-21 14:59:55.347182
- Title: Boosting few-shot classification with view-learnable contrastive
learning
- Title(参考訳): view-learnable contrastive learningによるマイナショット分類の促進
- Authors: Xu Luo, Yuxuan Chen, Liangjian Wen, Lili Pan, Zenglin Xu
- Abstract要約: 埋め込み空間の細粒度構造を学習するために,数ショットの分類に対照的な損失を導入する。
我々は,同じ画像の異なるビューを自動的に生成する学習学習アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 19.801016732390064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of few-shot classification is to classify new categories with few
labeled examples within each class. Nowadays, the excellent performance in
handling few-shot classification problems is shown by metric-based
meta-learning methods. However, it is very hard for previous methods to
discriminate the fine-grained sub-categories in the embedding space without
fine-grained labels. This may lead to unsatisfactory generalization to
fine-grained subcategories, and thus affects model interpretation. To tackle
this problem, we introduce the contrastive loss into few-shot classification
for learning latent fine-grained structure in the embedding space. Furthermore,
to overcome the drawbacks of random image transformation used in current
contrastive learning in producing noisy and inaccurate image pairs (i.e.,
views), we develop a learning-to-learn algorithm to automatically generate
different views of the same image. Extensive experiments on standard few-shot
learning benchmarks demonstrate the superiority of our method.
- Abstract(参考訳): 少数ショット分類の目標は、各クラス内のラベル付き例の少ない新しいカテゴリを分類することである。
近年, メタラーニング手法を用いて, 数発の分類問題に対処する上で, 優れた性能を示す。
しかし,従来の手法では,細粒度ラベルを使わずに埋め込み空間内の細粒度サブカテゴリを判別することは困難である。
これは細粒度のサブカテゴリに対する不十分な一般化につながり、モデル解釈に影響を与える可能性がある。
この問題に対処するために,埋め込み空間の細粒度構造を学習するために,いくつかのショット分類に対照的な損失を導入する。
さらに、雑音や不正確な画像ペアを生成する際に、現在のコントラスト学習で使われるランダムな画像変換の欠点を克服するために、同じ画像の異なるビューを自動的に生成する学習-学習アルゴリズムを開発する。
標準のマイトショット学習ベンチマークに関する広範囲な実験により,本手法の優位性が示された。
関連論文リスト
- Generalization Bounds for Few-Shot Transfer Learning with Pretrained
Classifiers [26.844410679685424]
本研究では,新しいクラスに移動可能な分類の表現を基礎モデルで学習する能力について検討する。
クラス-機能-変数の崩壊の場合,新しいクラスで学習した特徴マップのわずかな誤差が小さいことを示す。
論文 参考訳(メタデータ) (2022-12-23T18:46:05Z) - A Simple Approach to Adversarial Robustness in Few-shot Image
Classification [20.889464448762176]
単純な移動学習に基づくアプローチは、逆向きに頑健な数ショット分類器を訓練するのに有効であることを示す。
また,少数ショットカテゴリのセントロイドをベースクラスに校正する手法を提案する。
論文 参考訳(メタデータ) (2022-04-11T22:46:41Z) - Multi-Label Image Classification with Contrastive Learning [57.47567461616912]
コントラスト学習の直接適用は,複数ラベルの場合においてほとんど改善できないことを示す。
完全教師付き環境下でのコントラスト学習を用いたマルチラベル分類のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-24T15:00:47Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - Improving Classification Accuracy with Graph Filtering [9.153817737157366]
提案されたグラフフィルタリング手法は、平均を維持しながらクラス内分散を減らす効果があることを示した。
本手法は一般にすべての分類問題に適用されるが,クラス内ノイズが小さいサンプル選択に大きく影響しうる場合において特に有用である。
論文 参考訳(メタデータ) (2021-01-12T22:51:55Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Rethinking preventing class-collapsing in metric learning with
margin-based losses [81.22825616879936]
メトリクス学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離した埋め込みを求める。
マージンベースの損失は、クラスの全サンプルを埋め込み空間の単一点に投影する傾向がある。
そこで本研究では,各サンプルが最寄りの同一クラスをバッチで選択するように,埋め込み損失の簡易な修正を提案する。
論文 参考訳(メタデータ) (2020-06-09T09:59:25Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - Training few-shot classification via the perspective of minibatch and
pretraining [10.007569291231915]
少ないショット分類は、人間が限られた事前データから概念を学ぶ能力を定式化することを目的とした課題である。
近年,メタラーニングが注目されている。
分類問題におけるミニバッチと事前学習に対応する多相・横断訓練手法を提案する。
論文 参考訳(メタデータ) (2020-04-10T03:14:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。