論文の概要: Few-Shot Incremental Learning with Continually Evolved Classifiers
- arxiv url: http://arxiv.org/abs/2104.03047v1
- Date: Wed, 7 Apr 2021 10:54:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 13:05:18.355812
- Title: Few-Shot Incremental Learning with Continually Evolved Classifiers
- Title(参考訳): 進化を続ける分類器を用いたマイナショットインクリメンタル学習
- Authors: Chi Zhang, Nan Song, Guosheng Lin, Yun Zheng, Pan Pan, Yinghui Xu
- Abstract要約: Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
- 参考スコア(独自算出の注目度): 46.278573301326276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot class-incremental learning (FSCIL) aims to design machine learning
algorithms that can continually learn new concepts from a few data points,
without forgetting knowledge of old classes. The difficulty lies in that
limited data from new classes not only lead to significant overfitting issues
but also exacerbate the notorious catastrophic forgetting problems. Moreover,
as training data come in sequence in FSCIL, the learned classifier can only
provide discriminative information in individual sessions, while FSCIL requires
all classes to be involved for evaluation. In this paper, we address the FSCIL
problem from two aspects. First, we adopt a simple but effective decoupled
learning strategy of representations and classifiers that only the classifiers
are updated in each incremental session, which avoids knowledge forgetting in
the representations. By doing so, we demonstrate that a pre-trained backbone
plus a non-parametric class mean classifier can beat state-of-the-art methods.
Second, to make the classifiers learned on individual sessions applicable to
all classes, we propose a Continually Evolved Classifier (CEC) that employs a
graph model to propagate context information between classifiers for
adaptation. To enable the learning of CEC, we design a pseudo incremental
learning paradigm that episodically constructs a pseudo incremental learning
task to optimize the graph parameters by sampling data from the base dataset.
Experiments on three popular benchmark datasets, including CIFAR100,
miniImageNet, and Caltech-USCD Birds-200-2011 (CUB200), show that our method
significantly outperforms the baselines and sets new state-of-the-art results
with remarkable advantages.
- Abstract(参考訳): FSCIL(Few-shot class-incremental Learning)は、古いクラスの知識を忘れずに、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムを設計することを目的としている。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
さらに、学習した分類器は個別のセッションで識別情報しか提供できないのに対し、FSCILは評価にすべてのクラスを巻き込む必要がある。
本稿では,2つの側面からFSCILの問題に対処する。
まず,各インクリメンタルセッションで分類器のみが更新されるような表現と分類器の,単純かつ効果的に分離された学習戦略を採用する。
これにより,事前学習されたバックボーンと非パラメトリッククラス平均分類器が最先端のメソッドを打ち負かすことができることを実証する。
第2に,個々のセッションで学習する分類器をすべてのクラスに適用するために,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型分類器(cec)を提案する。
cecの学習を可能にするために,疑似インクリメンタル学習タスクをエピソドミックに構築する擬似インクリメンタル学習パラダイムを設計し,ベースデータセットからデータをサンプリングすることでグラフパラメータを最適化する。
CIFAR100, miniImageNet, Caltech-USCD Birds-200-2011 (CUB200) を含む3つの人気のあるベンチマークデータセットの実験により, 本手法がベースラインを著しく上回り, 新たな最先端の結果に顕著な優位性をもたらすことを示した。
関連論文リスト
- Knowledge Adaptation Network for Few-Shot Class-Incremental Learning [23.90555521006653]
クラス増分学習(class-incremental learning)は、いくつかのサンプルを使用して、新しいクラスを段階的に認識することを目的としている。
この問題を解決する効果的な方法の1つは、原型進化分類器を構築することである。
新しいクラスの表現は弱で偏りがあるので、そのような戦略は準最適であると主張する。
論文 参考訳(メタデータ) (2024-09-18T07:51:38Z) - A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - Learning Prompt with Distribution-Based Feature Replay for Few-Shot Class-Incremental Learning [56.29097276129473]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - Constructing Sample-to-Class Graph for Few-Shot Class-Incremental
Learning [10.111587226277647]
FSCIL(Few-shot class-incremental Learning)は、いくつかのデータサンプルから新しい概念を継続的に学習するマシンラーニングモデルの構築を目的とする。
本稿では,FSCILのためのS2Cグラフ学習手法を提案する。
論文 参考訳(メタデータ) (2023-10-31T08:38:14Z) - Class Incremental Learning with Self-Supervised Pre-Training and
Prototype Learning [21.901331484173944]
授業の段階的学習における破滅的忘れの原因を分析した。
固定エンコーダと漸進的に更新されたプロトタイプ分類器を備えた2段階学習フレームワークを提案する。
本手法は古いクラスを保存したサンプルに頼らず,非例ベースのCIL法である。
論文 参考訳(メタデータ) (2023-08-04T14:20:42Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。