論文の概要: Forward Compatible Few-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2203.06953v1
- Date: Mon, 14 Mar 2022 09:36:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 14:18:51.987381
- Title: Forward Compatible Few-Shot Class-Incremental Learning
- Title(参考訳): 前向き対応型Few-Shotクラスインクリメンタルラーニング
- Authors: Da-Wei Zhou, Fu-Yun Wang, Han-Jia Ye, Liang Ma, Shiliang Pu, De-Chuan
Zhan
- Abstract要約: 機械学習モデルは、古いクラスを忘れずに新しいクラスを認識するべきである。
現在の手法は漸進的な学習をふりかえりに扱う。
FSCILのためのForwArd Compatible Training (FACT)を提案する。
- 参考スコア(独自算出の注目度): 71.2459746681805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Novel classes frequently arise in our dynamically changing world, e.g., new
users in the authentication system, and a machine learning model should
recognize new classes without forgetting old ones. This scenario becomes more
challenging when new class instances are insufficient, which is called few-shot
class-incremental learning (FSCIL). Current methods handle incremental learning
retrospectively by making the updated model similar to the old one. By
contrast, we suggest learning prospectively to prepare for future updates, and
propose ForwArd Compatible Training (FACT) for FSCIL. Forward compatibility
requires future new classes to be easily incorporated into the current model
based on the current stage data, and we seek to realize it by reserving
embedding space for future new classes. In detail, we assign virtual prototypes
to squeeze the embedding of known classes and reserve for new ones. Besides, we
forecast possible new classes and prepare for the updating process. The virtual
prototypes allow the model to accept possible updates in the future, which act
as proxies scattered among embedding space to build a stronger classifier
during inference. FACT efficiently incorporates new classes with forward
compatibility and meanwhile resists forgetting of old ones. Extensive
experiments validate FACT's state-of-the-art performance. Code is available at:
https://github.com/zhoudw-zdw/CVPR22-Fact
- Abstract(参考訳): 新たなクラスは、例えば認証システムの新規ユーザなど、動的に変化する世界において頻繁に発生し、機械学習モデルは古いクラスを忘れずに新しいクラスを認識すべきである。
新しいクラスインスタンスが不十分な場合には、このシナリオはより難しくなります。
現在のメソッドは、旧モデルと同じような更新モデルを作ることで、インクリメンタルな学習を振り返りに処理します。
対照的に、今後の更新に備えた学習を前向きに提案し、FSCILのためのForwArd Compatible Training(FACT)を提案する。
前方互換性には、現在のステージデータに基づいて、将来の新しいクラスを簡単に現在のモデルに組み込む必要がある。
詳しくは、既知のクラスの埋め込みを絞って新しいクラスを予約するために仮想プロトタイプを割り当てます。
さらに、新しいクラスを予測し、更新プロセスの準備も行います。
仮想プロトタイプでは、モデルが将来可能な更新を受け付け、推論中により強力な分類器を構築するために埋め込み空間に散在するプロキシとして機能する。
FACTは、前方互換性を持つ新しいクラスを効率的に取り入れ、一方で古いクラスを忘れることに抵抗する。
大規模な実験は、FACTの最先端の性能を検証する。
コードは、https://github.com/zhoudw-zdw/CVPR22-Fact.comで入手できる。
関連論文リスト
- Class-Incremental Learning with CLIP: Adaptive Representation Adjustment and Parameter Fusion [10.322832012497722]
クラス増分学習(class-incremental learning)は難しい問題であり、目標は、時間とともに増加するクラスからデータを分類できるモデルをトレーニングすることである。
CLIPのような視覚言語で事前訓練されたモデルの進歩により、彼らは優れた一般化能力を示した。
しかし、単にモデルを微調整することで、下流タスクへのさらなる適応は、ひどく忘れてしまう。
事前訓練されたモデルを用いた既存の研究の多くは、モデルが新しい知識を得るとき、古いクラスを忘れることは一様であると仮定している。
論文 参考訳(メタデータ) (2024-07-19T09:20:33Z) - Organizing Background to Explore Latent Classes for Incremental Few-shot Semantic Segmentation [7.570798966278471]
インクリメンタルなFew-shot Semantic COCO(iFSS)は、トレーニング済みのセグメンテーションモデルを、いくつかの注釈付きイメージを通じて新しいクラスに拡張することである。
我々は,OINetと呼ばれる背景埋め込み空間 textbfOrganization とプロトタイプ textbfInherit Network を提案する。
論文 参考訳(メタデータ) (2024-05-29T23:22:12Z) - Expandable Subspace Ensemble for Pre-Trained Model-Based Class-Incremental Learning [65.57123249246358]
PTMベースのCILのためのExpAndable Subspace Ensemble (EASE)を提案する。
タスク固有のサブスペースを作成することを目的として、新しいタスクごとに異なる軽量アダプタモジュールをトレーニングする。
我々のプロトタイプ補完戦略は、古いクラスのインスタンスを使わずに、古いクラスの新機能を合成します。
論文 参考訳(メタデータ) (2024-03-18T17:58:13Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。