論文の概要: Contrastive Prototype Learning with Augmented Embeddings for Few-Shot
Learning
- arxiv url: http://arxiv.org/abs/2101.09499v1
- Date: Sat, 23 Jan 2021 13:22:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 10:44:58.995127
- Title: Contrastive Prototype Learning with Augmented Embeddings for Few-Shot
Learning
- Title(参考訳): 限定学習のための拡張組込みによるコントラスト型プロトタイプ学習
- Authors: Yizhao Gao, Nanyi Fei, Guangzhen Liu, Zhiwu Lu, Tao Xiang, Songfang
Huang
- Abstract要約: 拡張埋め込み(CPLAE)モデルを用いた新しいコントラスト型プロトタイプ学習を提案する。
クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。
いくつかのベンチマークによる大規模な実験により,提案したCPLAEが新たな最先端を実現することが示された。
- 参考スコア(独自算出の注目度): 58.2091760793799
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most recent few-shot learning (FSL) methods are based on meta-learning with
episodic training. In each meta-training episode, a discriminative feature
embedding and/or classifier are first constructed from a support set in an
inner loop, and then evaluated in an outer loop using a query set for model
updating. This query set sample centered learning objective is however
intrinsically limited in addressing the lack of training data problem in the
support set. In this paper, a novel contrastive prototype learning with
augmented embeddings (CPLAE) model is proposed to overcome this limitation.
First, data augmentations are introduced to both the support and query sets
with each sample now being represented as an augmented embedding (AE) composed
of concatenated embeddings of both the original and augmented versions. Second,
a novel support set class prototype centered contrastive loss is proposed for
contrastive prototype learning (CPL). With a class prototype as an anchor, CPL
aims to pull the query samples of the same class closer and those of different
classes further away. This support set sample centered loss is highly
complementary to the existing query centered loss, fully exploiting the limited
training data in each episode. Extensive experiments on several benchmarks
demonstrate that our proposed CPLAE achieves new state-of-the-art.
- Abstract(参考訳): 最近のいくつかのショットラーニング(FSL)手法は、エピソードトレーニングによるメタラーニングに基づいている。
各メタトレーニングエピソードにおいて、まず、内ループ内のサポートセットから識別的特徴埋め込みおよび/または分類器を構築し、その後、モデル更新のためのクエリセットを使用して外ループで評価する。
しかしながら、このクエリセットのサンプル中心学習目標は、本質的には、サポートセットにおけるトレーニングデータ問題に対処する上で制限されている。
本稿では,この限界を克服するために,拡張埋め込みモデル(cplae)を用いた新しいコントラストプロトタイプ学習を提案する。
まず、サポートセットとクエリセットの両方にデータ拡張が導入され、各サンプルは現在、オリジナルバージョンと拡張バージョンの両方の連結埋め込みからなる拡張埋め込み(ae)として表現される。
次に,コントラッシブ・プロトタイプ学習(CPL)において,コントラッシブ・ロスを中心とした新しいサポート・セット・クラス・プロトタイプを提案する。
クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。
このサポートセットのサンプル中心損失は、既存のクエリ中心損失と非常に相補的であり、各エピソードにおける限られたトレーニングデータを完全に活用する。
いくつかのベンチマークにおいて,提案したCPLAEが新たな最先端を実現することを示す。
関連論文リスト
- Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Tackling Online One-Class Incremental Learning by Removing Negative
Contrasts [12.048166025000976]
他の連続的な学習設定とは違い、学習者は1回だけ新しいサンプルが提示される。
ER-AMLは、入力データと再生データにコントラスト学習に基づく非対称な損失を適用することにより、この設定で強い性能を達成した。
我々は、教師付き学習から教師付き学習環境へ、最近提案されたアプローチを適応させ、コントラストの制約を解き放つ。
論文 参考訳(メタデータ) (2022-03-24T19:17:29Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - Ortho-Shot: Low Displacement Rank Regularization with Data Augmentation
for Few-Shot Learning [23.465747123791772]
少数の分類において、第一の目的は、新しいクラスをうまく一般化する表現を学ぶことである。
オルソショット(Ortho-Shot)と呼ばれる効率的な低変位ランク(LDR)正規化戦略を提案する。
論文 参考訳(メタデータ) (2021-10-18T14:58:36Z) - Prototype Completion for Few-Shot Learning [13.63424509914303]
少数ショット学習は、いくつかの例で新しいクラスを認識することを目的としている。
事前学習に基づく手法は,特徴抽出器を事前学習し,最寄りのセントロイド型メタラーニングを通して微調整することで,この問題に効果的に対処する。
本稿では,完成度に基づくメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:44:00Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Adaptive Prototypical Networks with Label Words and Joint Representation
Learning for Few-Shot Relation Classification [17.237331828747006]
本研究は,少ショット関係分類(FSRC)に焦点を当てる。
クラスプロトタイプの表現にラベル単語を追加するための適応的混合機構を提案する。
FewRelでは、異なる数ショット(FS)設定で実験が行われた。
論文 参考訳(メタデータ) (2021-01-10T11:25:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。