論文の概要: Continual Few-Shot Learning with Adversarial Class Storage
- arxiv url: http://arxiv.org/abs/2207.12303v1
- Date: Sun, 10 Jul 2022 03:40:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-31 14:39:24.237740
- Title: Continual Few-Shot Learning with Adversarial Class Storage
- Title(参考訳): 対数クラスストレージを用いた連続的なファウショット学習
- Authors: Kun Wu, Chengxiang Yin, Jian Tang, Zhiyuan Xu, Yanzhi Wang, Dejun Yang
- Abstract要約: 本稿では,連続的メタラーナー(CML)を提案する。
CMLは、メトリックベースの分類とメモリベースのメカニズムと、逆学習をメタ学習フレームワークに統合する。
実験結果から,CMLは破滅的な忘れを伴わずに,数発の学習タスクで最先端のパフォーマンスを実現することがわかった。
- 参考スコア(独自算出の注目度): 44.04528506999142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans have a remarkable ability to quickly and effectively learn new
concepts in a continuous manner without forgetting old knowledge. Though deep
learning has made tremendous successes on various computer vision tasks, it
faces challenges for achieving such human-level intelligence. In this paper, we
define a new problem called continual few-shot learning, in which tasks arrive
sequentially and each task is associated with a few training samples. We
propose Continual Meta-Learner (CML) to solve this problem. CML integrates
metric-based classification and a memory-based mechanism along with adversarial
learning into a meta-learning framework, which leads to the desirable
properties: 1) it can quickly and effectively learn to handle a new task; 2) it
overcomes catastrophic forgetting; 3) it is model-agnostic. We conduct
extensive experiments on two image datasets, MiniImageNet and CIFAR100.
Experimental results show that CML delivers state-of-the-art performance in
terms of classification accuracy on few-shot learning tasks without
catastrophic forgetting.
- Abstract(参考訳): 人間は、古い知識を忘れずに、継続的に新しい概念を迅速かつ効果的に学べる素晴らしい能力を持っている。
ディープラーニングは様々なコンピュータビジョンタスクで大きな成功を収めてきたが、そのような人間レベルの知性を達成するための課題に直面している。
本稿では,タスクが順次到着し,各タスクがいくつかのトレーニングサンプルに関連付けられる,連続的少数ショット学習と呼ばれる新しい問題を定義する。
この問題を解決するために,CML(Continuous Meta-Learner)を提案する。
CMLは、メトリックベースの分類とメモリベースのメカニズムと、敵対的学習をメタラーニングフレームワークに統合し、望ましい特性をもたらす。
1) 新しいタスクの処理を迅速かつ効果的に行うことができる。
2) 破滅的な忘れを克服する。
3)モデルに依存しない。
我々は,2つの画像データセット,MiniImageNetとCIFAR100について広範な実験を行った。
実験結果から,cmlは破壊的忘れずに,マイトショット学習タスクの分類精度の面で最先端のパフォーマンスを提供することがわかった。
関連論文リスト
- Learning to Learn with Indispensable Connections [6.040904021861969]
本稿では,メタ-LTHと呼ばれるメタ-LTHと呼ばれるメタ-ラーニング手法を提案する。
本手法は,オムニグロットデータセットの分類精度を約2%向上させる。
論文 参考訳(メタデータ) (2023-04-06T04:53:13Z) - Task-Attentive Transformer Architecture for Continual Learning of
Vision-and-Language Tasks Using Knowledge Distillation [18.345183818638475]
連続学習(CL)は、逐次到着するタスク間で知識伝達を可能にすることで、治療の役割を果たす。
バイモーダル・ビジョン・アンド・ランゲージ・タスクを学習するためのトランスフォーマーベースのCLアーキテクチャを開発した。
私たちのアプローチは、メモリと時間のオーバーヘッドが少ないため、多数のタスクにスケーラブルに学習するものです。
論文 参考訳(メタデータ) (2023-03-25T10:16:53Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Continual learning of quantum state classification with gradient
episodic memory [0.20646127669654826]
破滅的忘れという現象は、機械学習モデルが複数のタスクにわたって訓練されたときに発生する。
破滅的な忘れの問題に対処するために、いくつかの継続的な学習戦略が提案されている。
本研究では,変分量子分類器の学習に勾配エピソードメモリ法を取り入れた。
論文 参考訳(メタデータ) (2022-03-26T09:28:26Z) - What Matters For Meta-Learning Vision Regression Tasks? [19.373532562905208]
本論文は,このほとんど探索されていない領域の理解に寄与する2つの主要な貢献を行う。
まず、オブジェクト発見とポーズ推定という2つの新しいカテゴリレベルの視覚回帰タスクを設計する。
第2に,条件付きニューラルプロセス(CNP)におけるタスク表現に関数型コントラスト学習(FCL)を付加し,エンドツーエンドで学習する手法を提案する。
論文 参考訳(メタデータ) (2022-03-09T17:28:16Z) - Few-shot Continual Learning: a Brain-inspired Approach [34.306678703379944]
数ショット連続学習(FSCL)に関する最初の体系的研究を行い、ディープニューラルネットワークによる効果的なソリューションを提示します。
我々のソリューションは、タスクシーケンスの連続学習が必然的に少数の一般化を妨げるという観察に基づいている。
我々はロバストな脳システムからインスピレーションを得て,(1)メタ可塑性と高速/遅いシナプスの生物学的モデルに触発された,連続学習と少数ショット学習のための2つの高速/遅い重みを相互に更新する手法を開発し,(2)タスクシーケンスを忘れることなく学習するために,脳にインスパイアされた2段階統合戦略を適用した。
論文 参考訳(メタデータ) (2021-04-19T03:40:48Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z) - Self-supervised Knowledge Distillation for Few-shot Learning [123.10294801296926]
少数のサンプルだけで秩序分布から素早く学習できるため、ショットラーニングは有望な学習パラダイムである。
数ショットの学習タスクにおいて,深層ニューラルネットワークの表現能力を向上させるための簡単な手法を提案する。
実験により、第一段階においても、自己超越は現在の最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-06-17T11:27:00Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z) - iTAML: An Incremental Task-Agnostic Meta-learning Approach [123.10294801296926]
人間は経験が成長するにつれて、新しい知識を継続的に学ぶことができる。
ディープニューラルネットワークにおける以前の学習は、新しいタスクでトレーニングされたときにすぐに消えてしまう可能性がある。
遭遇した全てのタスク間の平衡を維持するために,新しいメタラーニング手法を導入する。
論文 参考訳(メタデータ) (2020-03-25T21:42:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。