論文の概要: Forward Compatible Few-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2203.06953v1
- Date: Mon, 14 Mar 2022 09:36:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 14:18:51.987381
- Title: Forward Compatible Few-Shot Class-Incremental Learning
- Title(参考訳): 前向き対応型Few-Shotクラスインクリメンタルラーニング
- Authors: Da-Wei Zhou, Fu-Yun Wang, Han-Jia Ye, Liang Ma, Shiliang Pu, De-Chuan
Zhan
- Abstract要約: 機械学習モデルは、古いクラスを忘れずに新しいクラスを認識するべきである。
現在の手法は漸進的な学習をふりかえりに扱う。
FSCILのためのForwArd Compatible Training (FACT)を提案する。
- 参考スコア(独自算出の注目度): 71.2459746681805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Novel classes frequently arise in our dynamically changing world, e.g., new
users in the authentication system, and a machine learning model should
recognize new classes without forgetting old ones. This scenario becomes more
challenging when new class instances are insufficient, which is called few-shot
class-incremental learning (FSCIL). Current methods handle incremental learning
retrospectively by making the updated model similar to the old one. By
contrast, we suggest learning prospectively to prepare for future updates, and
propose ForwArd Compatible Training (FACT) for FSCIL. Forward compatibility
requires future new classes to be easily incorporated into the current model
based on the current stage data, and we seek to realize it by reserving
embedding space for future new classes. In detail, we assign virtual prototypes
to squeeze the embedding of known classes and reserve for new ones. Besides, we
forecast possible new classes and prepare for the updating process. The virtual
prototypes allow the model to accept possible updates in the future, which act
as proxies scattered among embedding space to build a stronger classifier
during inference. FACT efficiently incorporates new classes with forward
compatibility and meanwhile resists forgetting of old ones. Extensive
experiments validate FACT's state-of-the-art performance. Code is available at:
https://github.com/zhoudw-zdw/CVPR22-Fact
- Abstract(参考訳): 新たなクラスは、例えば認証システムの新規ユーザなど、動的に変化する世界において頻繁に発生し、機械学習モデルは古いクラスを忘れずに新しいクラスを認識すべきである。
新しいクラスインスタンスが不十分な場合には、このシナリオはより難しくなります。
現在のメソッドは、旧モデルと同じような更新モデルを作ることで、インクリメンタルな学習を振り返りに処理します。
対照的に、今後の更新に備えた学習を前向きに提案し、FSCILのためのForwArd Compatible Training(FACT)を提案する。
前方互換性には、現在のステージデータに基づいて、将来の新しいクラスを簡単に現在のモデルに組み込む必要がある。
詳しくは、既知のクラスの埋め込みを絞って新しいクラスを予約するために仮想プロトタイプを割り当てます。
さらに、新しいクラスを予測し、更新プロセスの準備も行います。
仮想プロトタイプでは、モデルが将来可能な更新を受け付け、推論中により強力な分類器を構築するために埋め込み空間に散在するプロキシとして機能する。
FACTは、前方互換性を持つ新しいクラスを効率的に取り入れ、一方で古いクラスを忘れることに抵抗する。
大規模な実験は、FACTの最先端の性能を検証する。
コードは、https://github.com/zhoudw-zdw/CVPR22-Fact.comで入手できる。
関連論文リスト
- CEAT: Continual Expansion and Absorption Transformer for Non-Exemplar
Class-Incremental Learning [34.59310641291726]
現実のアプリケーションでは、動的シナリオは、古い知識を忘れずに新しいタスクを継続的に学習する能力を持つ必要がある。
連続膨張吸収変圧器(CEAT)という新しいアーキテクチャを提案する。
このモデルは、凍結した前のパラメータと平行に拡散層を拡張することで、新しい知識を学ぶことができる。
モデルの学習能力を向上させるために,特徴空間における古クラスと新クラスの重複を低減するために,新しいプロトタイプを設計した。
論文 参考訳(メタデータ) (2024-03-11T12:40:12Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Combining Past, Present and Future: A Self-Supervised Approach for Class
Incremental Learning [41.770481472817934]
我々は,過去,現在,未来を組み合わせた自己管理型CILフレームワークCPPFを提案する。
提案手法は,自己指導型インクリメンタル学習の性能を向上させる。
論文 参考訳(メタデータ) (2023-11-15T08:13:52Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Forward Compatible Training for Representation Learning [53.300192863727226]
後方互換トレーニング(BCT)は、新しいモデルのトレーニングを変更して、その表現を古いモデルのトレーニングと互換性を持たせる。
BCTは新しいモデルの性能を著しく損なう可能性がある。
本研究では,表現学習のための新しい学習パラダイムである,前方互換学習(FCT)を提案する。
論文 参考訳(メタデータ) (2021-12-06T06:18:54Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z) - Towards Backward-Compatible Representation Learning [86.39292571306395]
異なる次元であっても,従来の計算機能と互換性のある視覚的特徴を学習する方法を提案する。
これにより、埋め込みモデルを更新する際に、以前見たすべての画像の新機能の計算を回避できる。
本稿では、後方互換表現学習の第一歩として、後方互換学習(BCT)と呼ばれる埋め込みモデルを訓練するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-26T14:34:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。