論文の概要: Few-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2004.10956v2
- Date: Fri, 24 Apr 2020 02:12:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 08:54:36.296237
- Title: Few-Shot Class-Incremental Learning
- Title(参考訳): 数ショットクラスインクリメンタルラーニング
- Authors: Xiaoyu Tao, Xiaopeng Hong, Xinyuan Chang, Songlin Dong, Xing Wei,
Yihong Gong
- Abstract要約: 本稿では,FSCIL問題に焦点をあてる。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
我々は,異なるクラスで形成される特徴多様体のトポロジーを学習し,保存するニューラルネットワーク(NG)ネットワークを用いて,知識を表現する。
- 参考スコア(独自算出の注目度): 68.75462849428196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to incrementally learn new classes is crucial to the development
of real-world artificial intelligence systems. In this paper, we focus on a
challenging but practical few-shot class-incremental learning (FSCIL) problem.
FSCIL requires CNN models to incrementally learn new classes from very few
labelled samples, without forgetting the previously learned ones. To address
this problem, we represent the knowledge using a neural gas (NG) network, which
can learn and preserve the topology of the feature manifold formed by different
classes. On this basis, we propose the TOpology-Preserving knowledge
InCrementer (TOPIC) framework. TOPIC mitigates the forgetting of the old
classes by stabilizing NG's topology and improves the representation learning
for few-shot new classes by growing and adapting NG to new training samples.
Comprehensive experimental results demonstrate that our proposed method
significantly outperforms other state-of-the-art class-incremental learning
methods on CIFAR100, miniImageNet, and CUB200 datasets.
- Abstract(参考訳): 新しいクラスを段階的に学習する能力は、現実の人工知能システムの開発に不可欠である。
本稿では,fscil問題に挑戦するが実用的ではない問題に着目する。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
この問題に対処するために,我々は,異なるクラスで形成される特徴多様体の位相を学習し,保存するニューラルガス(NG)ネットワークを用いて知識を表現する。
そこで我々は,TOPIC(Topology-Preserving Knowledge InCrementer)フレームワークを提案する。
TOPICは、NGのトポロジを安定化することで古いクラスの忘れを軽減し、NGを新しいトレーニングサンプルに成長させ、適応させることで、数ショットの新しいクラスの表現学習を改善する。
その結果,提案手法はCIFAR100, miniImageNet, CUB200データセット上の他の最先端クラスインクリメンタル学習手法よりも優れていた。
関連論文リスト
- CLOSER: Towards Better Representation Learning for Few-Shot Class-Incremental Learning [52.63674911541416]
FSCIL(Few-shot class-incremental Learning)は、過剰適合や忘れなど、いくつかの課題に直面している。
FSCILの独特な課題に取り組むため、ベースクラスでの表現学習に重点を置いている。
より制限された機能空間内で機能の拡散を確保することで、学習された表現が、伝達可能性と識別可能性のバランスを良くすることが可能になることが分かりました。
論文 参考訳(メタデータ) (2024-10-08T02:23:16Z) - Knowledge Adaptation Network for Few-Shot Class-Incremental Learning [23.90555521006653]
クラス増分学習(class-incremental learning)は、いくつかのサンプルを使用して、新しいクラスを段階的に認識することを目的としている。
この問題を解決する効果的な方法の1つは、原型進化分類器を構築することである。
新しいクラスの表現は弱で偏りがあるので、そのような戦略は準最適であると主張する。
論文 参考訳(メタデータ) (2024-09-18T07:51:38Z) - Learning Prompt with Distribution-Based Feature Replay for Few-Shot Class-Incremental Learning [56.29097276129473]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - On the Role of Neural Collapse in Transfer Learning [29.972063833424215]
近年,多くのクラスにまたがる単一分類器で学習した表現は,数発の学習問題において競合することが示された。
神経崩壊は、トレーニングクラスからの新しいサンプルに一般化され、さらに重要なことは、新しいクラスにも一般化されます。
論文 参考訳(メタデータ) (2021-12-30T16:36:26Z) - Essentials for Class Incremental Learning [43.306374557919646]
CIFAR-100とImageNetのクラスインクリメンタルな学習結果は、アプローチをシンプルに保ちながら、最先端の成果を大きなマージンで改善します。
論文 参考訳(メタデータ) (2021-02-18T18:01:06Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Self-Supervised Learning Aided Class-Incremental Lifelong Learning [17.151579393716958]
クラスインクリメンタルラーニング(Class-IL)における破滅的忘れの問題について検討する。
クラスILの訓練手順では、モデルが次のタスクについて知識を持っていないため、これまで学習してきたタスクに必要な特徴のみを抽出し、その情報は共同分類に不十分である。
本稿では,ラベルを必要とせずに効果的な表現を提供する自己教師型学習と,この問題を回避するためのクラスILを組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-06-10T15:15:27Z) - Cognitively-Inspired Model for Incremental Learning Using a Few Examples [11.193504036335503]
増分学習は、異なるクラスに分離されたデータのストリームから連続的に学習する分類器の開発を試みる。
ディープラーニングアプローチは、クラスを漸進的に学習する際の破滅的な忘れ込みに悩まされる一方、ほとんどのインクリメンタル学習アプローチは、クラス毎に大量のトレーニングデータを必要とします。
本研究では,海馬と新皮質の概念学習モデルから着想を得た新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-02-27T19:52:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。