論文の概要: XtarNet: Learning to Extract Task-Adaptive Representation for
Incremental Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2003.08561v2
- Date: Wed, 1 Jul 2020 07:08:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 03:32:08.801016
- Title: XtarNet: Learning to Extract Task-Adaptive Representation for
Incremental Few-Shot Learning
- Title(参考訳): XtarNet: インクリメンタルFew-Shot学習のためのタスク適応表現抽出学習
- Authors: Sung Whan Yoon, Do-Yeon Kim, Jun Seo, Jaekyun Moon
- Abstract要約: 本稿では,タスク適応型表現(TAR)を抽出し,段階的な数ショット学習を容易にするXtarNetを提案する。
TARには、新規カテゴリとベースカテゴリの両方を分類するための効果的な情報が含まれている。
XtarNetは、最先端のインクリメンタルな数ショット学習パフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 24.144499302568565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning novel concepts while preserving prior knowledge is a long-standing
challenge in machine learning. The challenge gets greater when a novel task is
given with only a few labeled examples, a problem known as incremental few-shot
learning. We propose XtarNet, which learns to extract task-adaptive
representation (TAR) for facilitating incremental few-shot learning. The method
utilizes a backbone network pretrained on a set of base categories while also
employing additional modules that are meta-trained across episodes. Given a new
task, the novel feature extracted from the meta-trained modules is mixed with
the base feature obtained from the pretrained model. The process of combining
two different features provides TAR and is also controlled by meta-trained
modules. The TAR contains effective information for classifying both novel and
base categories. The base and novel classifiers quickly adapt to a given task
by utilizing the TAR. Experiments on standard image datasets indicate that
XtarNet achieves state-of-the-art incremental few-shot learning performance.
The concept of TAR can also be used in conjunction with existing incremental
few-shot learning methods; extensive simulation results in fact show that
applying TAR enhances the known methods significantly.
- Abstract(参考訳): 事前知識を維持しながら新しい概念を学ぶことは、機械学習における長年の課題である。
新たなタスクがいくつかのラベル付き例で与えられると、課題はさらに大きくなる。
本稿では,タスク適応表現(tar)の抽出を学習し,インクリメンタルな少数ショット学習を促進するxtarnetを提案する。
この方法は、ベースカテゴリのセットで事前トレーニングされたバックボーンネットワークを利用し、エピソード間でメタトレーニングされる追加モジュールも利用する。
メタ訓練モジュールから抽出された新しい特徴と、事前訓練されたモデルから得られた基本特徴とを混合する。
2つの異なる特徴を組み合わせるプロセスは、TARを提供し、メタトレーニングモジュールによって制御される。
タールは、新規カテゴリとベースカテゴリの両方を分類するための有効な情報を含む。
ベース及び新規分類器は、タールを利用して所定のタスクに迅速に適応する。
標準画像データセットの実験は、XtarNetが最先端のインクリメンタルな数ショット学習性能を達成することを示している。
TARの概念は、既存のインクリメンタルな数ショット学習手法と併用しても使用することができるが、シミュレーションの結果は、TARの適用が既知の手法を大幅に強化することを示している。
関連論文リスト
- Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Improving Feature Generalizability with Multitask Learning in Class
Incremental Learning [12.632121107536843]
キーワードスポッティングのような多くのディープラーニングアプリケーションは、クラスインクリメンタルラーニング(CIL)と呼ばれる新しい概念(クラス)を時間とともに組み込む必要がある。
CILの最大の課題は、破滅的な忘れ、すなわち、新しいタスクを学習しながら可能な限り多くの古い知識を保存することである。
本稿では,基本モデルトレーニング中のマルチタスク学習による特徴一般化性の向上を提案する。
提案手法は,平均漸進的学習精度を最大5.5%向上させ,時間とともにより信頼性が高く正確なキーワードスポッティングを可能にする。
論文 参考訳(メタデータ) (2022-04-26T07:47:54Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Grad2Task: Improved Few-shot Text Classification Using Gradients for
Task Representation [24.488427641442694]
本稿では,数ショットのテキスト分類のための条件付きニューラルプロセスに基づく新しいアプローチを提案する。
私たちのキーとなるアイデアは、ベースモデルからの勾配情報を使って各タスクを表現することです。
我々のアプローチは、従来の微調整、シーケンシャルトランスファーラーニング、そして最先端のメタラーニングアプローチよりも優れています。
論文 参考訳(メタデータ) (2022-01-27T15:29:30Z) - MetaKernel: Learning Variational Random Features with Limited Labels [120.90737681252594]
少数の注釈付きサンプルから学習し、新しいタスクでうまく一般化できるという根本的かつ困難な問題に、少数のショットラーニングが対処します。
マルチショット学習のためのランダムなフーリエ機能を備えたメタラーニングカーネルをMeta Kernelと呼びます。
論文 参考訳(メタデータ) (2021-05-08T21:24:09Z) - Meta-Regularization by Enforcing Mutual-Exclusiveness [0.8057006406834467]
本稿では,メタ学習時の情報フローをモデル設計者が制御できるように,メタ学習モデルの正規化手法を提案する。
提案した正規化関数は,Omniglotデータセット上で$sim$$36%の精度向上を示す。
論文 参考訳(メタデータ) (2021-01-24T22:57:19Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Adaptive Task Sampling for Meta-Learning [79.61146834134459]
数ショットの分類のためのメタラーニングの鍵となるアイデアは、テスト時に直面した数ショットの状況を模倣することである。
一般化性能を向上させるための適応型タスクサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T03:15:53Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。