論文の概要: Few-shot Learning with LSSVM Base Learner and Transductive Modules
- arxiv url: http://arxiv.org/abs/2009.05786v1
- Date: Sat, 12 Sep 2020 13:16:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 07:50:14.857601
- Title: Few-shot Learning with LSSVM Base Learner and Transductive Modules
- Title(参考訳): LSSVMベースラーナとトランスダクティブモジュールによるFew-shot Learning
- Authors: Haoqing Wang, Zhi-Hong Deng
- Abstract要約: 計算オーバーヘッドの少ない既存のものよりも優れた生成を実現するベース学習機として,マルチクラス最小二乗支援ベクトルマシンを導入している。
また、クエリーサンプルを使用してサポートセットを変更する、シンプルで効果的なトランスダクティブモジュールを2つ提案する。
我々のモデルはFSLSTMと呼ばれ、MiniImageNetとCIFAR-FSによる数ショット学習ベンチマークで最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 20.323443723115275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of meta-learning approaches for few-shot learning generally
depends on three aspects: features suitable for comparison, the classifier (
base learner ) suitable for low-data scenarios, and valuable information from
the samples to classify. In this work, we make improvements for the last two
aspects: 1) although there are many effective base learners, there is a
trade-off between generalization performance and computational overhead, so we
introduce multi-class least squares support vector machine as our base learner
which obtains better generation than existing ones with less computational
overhead; 2) further, in order to utilize the information from the query
samples, we propose two simple and effective transductive modules which modify
the support set using the query samples, i.e., adjusting the support samples
basing on the attention mechanism and adding the prototypes of the query set
with pseudo labels to the support set as the pseudo support samples. These two
modules significantly improve the few-shot classification accuracy, especially
for the difficult 1-shot setting. Our model, denoted as FSLSTM (Few-Shot
learning with LSsvm base learner and Transductive Modules), achieves
state-of-the-art performance on miniImageNet and CIFAR-FS few-shot learning
benchmarks.
- Abstract(参考訳): メタラーニング手法の性能は, 比較に適した特徴, 低データシナリオに適した分類器(基礎学習者), サンプルからの貴重な情報という3つの側面に概ね依存している。
この作業では、最後の2つの側面を改善します。
1) 有効な基礎学習者が多数存在するが, 一般化性能と計算オーバーヘッドとの間にはトレードオフがあるので, 計算オーバーヘッドの少ない既存学習者よりも優れた生成が得られる多クラス最小二乗支援ベクトルマシンをベース学習者として導入する。
さらに,クエリサンプルからの情報を活用するために,クエリサンプルを用いたサポートセットの変更,すなわちアテンション機構に基づくサポートサンプルの調整,疑似サポートサンプルとしてサポートセットに擬似ラベル付きクエリセットのプロトタイプの追加を行う,シンプルで効果的な2つのトランスダクティブモジュールを提案する。
これら2つのモジュールは、特に難しい1ショット設定において、少数ショットの分類精度を大幅に向上させる。
我々のモデルはFSLSTM(Few-Shot Learning with LSsvm base learner and Transductive Modules)と呼ばれ, miniImageNet と CIFAR-FS による数ショット学習ベンチマークで最先端のパフォーマンスを実現する。
関連論文リスト
- Dual Adaptive Representation Alignment for Cross-domain Few-shot
Learning [58.837146720228226]
ベース知識から学習することで、限られたサポートサンプルを持つ新規なクエリを認識することを目的としている。
この設定の最近の進歩は、ベース知識と新しいクエリサンプルが同じドメインに分散されていることを前提としている。
本稿では,ターゲットドメインで利用可能なサンプルが極めて少ないドメイン間数ショット学習の問題に対処することを提案する。
論文 参考訳(メタデータ) (2023-06-18T09:52:16Z) - USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - CAD: Co-Adapting Discriminative Features for Improved Few-Shot
Classification [11.894289991529496]
少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T06:14:51Z) - Beyond Simple Meta-Learning: Multi-Purpose Models for Multi-Domain,
Active and Continual Few-Shot Learning [41.07029317930986]
低ラベル方式で動作するモデルの分散感応クラスを提案する。
最初の手法であるSimple CNAPSは階層的に正規化されたマハラノビス距離に基づく分類器を用いる。
我々はさらに、このアプローチをトランスダクティブ学習環境に拡張し、トランスダクティブCNAPSを提案する。
論文 参考訳(メタデータ) (2022-01-13T18:59:02Z) - Contrastive Prototype Learning with Augmented Embeddings for Few-Shot
Learning [58.2091760793799]
拡張埋め込み(CPLAE)モデルを用いた新しいコントラスト型プロトタイプ学習を提案する。
クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。
いくつかのベンチマークによる大規模な実験により,提案したCPLAEが新たな最先端を実現することが示された。
論文 参考訳(メタデータ) (2021-01-23T13:22:44Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Revisiting Unsupervised Meta-Learning: Amplifying or Compensating for
the Characteristics of Few-Shot Tasks [30.893785366366078]
我々は,限られたデータを用いて視覚認識システムを構築する,少数ショット画像分類への実践的アプローチを開発した。
基本クラスセットラベルは不要であり、識別的埋め込みは教師なしの方法でメタ学習される可能性がある。
数ショットの学習ベンチマークの実験では、従来の手法よりも4~10%のパフォーマンス差で、アプローチが優れていることが確認された。
論文 参考訳(メタデータ) (2020-11-30T10:08:35Z) - Multi-scale Adaptive Task Attention Network for Few-Shot Learning [5.861206243996454]
少数ショット学習の目標は、ラベル付きサンプルの少ない未確認カテゴリを分類することである。
本稿では,マルチスケール適応タスク注意ネットワーク(MATANet)を提案する。
論文 参考訳(メタデータ) (2020-11-30T00:36:01Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。