論文の概要: Multi-scale Adaptive Task Attention Network for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2011.14479v1
- Date: Mon, 30 Nov 2020 00:36:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 08:11:23.670288
- Title: Multi-scale Adaptive Task Attention Network for Few-Shot Learning
- Title(参考訳): ファウショット学習のためのマルチスケール適応タスク注意ネットワーク
- Authors: Haoxing Chen and Huaxiong Li and Yaohui Li and Chunlin Chen
- Abstract要約: 少数ショット学習の目標は、ラベル付きサンプルの少ない未確認カテゴリを分類することである。
本稿では,マルチスケール適応タスク注意ネットワーク(MATANet)を提案する。
- 参考スコア(独自算出の注目度): 5.861206243996454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of few-shot learning is to classify unseen categories with few
labeled samples. Recently, the low-level information metric-learning based
methods have achieved satisfying performance, since local representations (LRs)
are more consistent between seen and unseen classes. However, most of these
methods deal with each category in the support set independently, which is not
sufficient to measure the relation between features, especially in a certain
task. Moreover, the low-level information-based metric learning method suffers
when dominant objects of different scales exist in a complex background. To
address these issues, this paper proposes a novel Multi-scale Adaptive Task
Attention Network (MATANet) for few-shot learning. Specifically, we first use a
multi-scale feature generator to generate multiple features at different
scales. Then, an adaptive task attention module is proposed to select the most
important LRs among the entire task. Afterwards, a similarity-to-class module
and a fusion layer are utilized to calculate a joint multi-scale similarity
between the query image and the support set. Extensive experiments on popular
benchmarks clearly show the effectiveness of the proposed MATANet compared with
state-of-the-art methods.
- Abstract(参考訳): 少数ショット学習の目標は、ラベル付きサンプルの少ない未確認カテゴリを分類することである。
近年,局所表現(LR)は目に見えるクラスと目に見えないクラスの間でより一貫性があるため,低レベルのメトリック学習に基づく手法が性能を満足している。
しかし,これらの手法の多くは,各カテゴリを個別に扱うものであり,特に特定のタスクにおいて,特徴間の関係を測るには不十分である。
さらに、複雑な背景に異なるスケールの支配的対象が存在する場合、低レベル情報に基づく計量学習手法が苦しむ。
この問題に対処するため,本論文では,マイナショット学習のためのマルチスケール適応タスクアテンションネットワーク (matanet) を提案する。
具体的には、まずマルチスケールの機能生成器を使用して、異なるスケールで複数の機能を生成する。
次に,タスク全体の中で最も重要なLRを選択するために,適応型タスクアテンションモジュールを提案する。
その後、類似度−クラスモジュールと融合層とを用いて、クエリ画像とサポートセットとのジョイント多スケール類似度を算出する。
一般的なベンチマークでの大規模な実験は、提案したMATANetの有効性を最先端の手法と比較して明らかに示している。
関連論文リスト
- Investigating Self-Supervised Methods for Label-Efficient Learning [27.029542823306866]
低撮影能力のためのコントラスト学習、クラスタリング、マスク付き画像モデリングなど、さまざまな自己教師付きプレテキストタスクについて検討する。
マスク画像モデリングとクラスタリングの両方をプリテキストタスクとして含むフレームワークを導入する。
実規模データセット上でモデルをテストした場合,マルチクラス分類,マルチラベル分類,セマンティックセマンティックセグメンテーションにおける性能向上を示す。
論文 参考訳(メタデータ) (2024-06-25T10:56:03Z) - A Study on Representation Transfer for Few-Shot Learning [5.717951523323085]
ほとんどショットの分類は、いくつかのラベル付き例を使って、新しいオブジェクトカテゴリを適切に分類することを目的としていない。
本研究では, 様々な特徴表現の体系的研究を行い, 数発の分類を行う。
より複雑なタスクからの学習は、数ショットの分類においてより良い表現を与える傾向にある。
論文 参考訳(メタデータ) (2022-09-05T17:56:02Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - CAD: Co-Adapting Discriminative Features for Improved Few-Shot
Classification [11.894289991529496]
少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T06:14:51Z) - Beyond Simple Meta-Learning: Multi-Purpose Models for Multi-Domain,
Active and Continual Few-Shot Learning [41.07029317930986]
低ラベル方式で動作するモデルの分散感応クラスを提案する。
最初の手法であるSimple CNAPSは階層的に正規化されたマハラノビス距離に基づく分類器を用いる。
我々はさらに、このアプローチをトランスダクティブ学習環境に拡張し、トランスダクティブCNAPSを提案する。
論文 参考訳(メタデータ) (2022-01-13T18:59:02Z) - Few-shot Learning with LSSVM Base Learner and Transductive Modules [20.323443723115275]
計算オーバーヘッドの少ない既存のものよりも優れた生成を実現するベース学習機として,マルチクラス最小二乗支援ベクトルマシンを導入している。
また、クエリーサンプルを使用してサポートセットを変更する、シンプルで効果的なトランスダクティブモジュールを2つ提案する。
我々のモデルはFSLSTMと呼ばれ、MiniImageNetとCIFAR-FSによる数ショット学習ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-09-12T13:16:55Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - A Few-Shot Sequential Approach for Object Counting [63.82757025821265]
画像中のオブジェクトに逐次出席するクラスアテンション機構を導入し,それらの特徴を抽出する。
提案手法は点レベルのアノテーションに基づいて訓練され,モデルのクラス依存的・クラス依存的側面を乱す新しい損失関数を用いる。
本稿では,FSODやMS COCOなど,さまざまなオブジェクトカウント/検出データセットについて報告する。
論文 参考訳(メタデータ) (2020-07-03T18:23:39Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Selecting Relevant Features from a Multi-domain Representation for
Few-shot Classification [91.67977602992657]
本稿では,従来の特徴適応手法よりもシンプルかつ効果的である特徴選択に基づく新しい戦略を提案する。
このような特徴の上に構築された単純な非パラメトリック分類器は高い精度を示し、訓練中に見たことのない領域に一般化する。
論文 参考訳(メタデータ) (2020-03-20T15:44:17Z) - Improving Few-shot Learning by Spatially-aware Matching and
CrossTransformer [116.46533207849619]
数ショット学習シナリオにおけるスケールと位置ミスマッチの影響について検討する。
本稿では,複数のスケールや場所のマッチングを効果的に行うための,空間認識型マッチング手法を提案する。
論文 参考訳(メタデータ) (2020-01-06T14:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。