論文の概要: Few-shot Class-Incremental Learning via Generative Co-Memory Regularization
- arxiv url: http://arxiv.org/abs/2601.07117v1
- Date: Mon, 12 Jan 2026 01:10:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.166436
- Title: Few-shot Class-Incremental Learning via Generative Co-Memory Regularization
- Title(参考訳): 生成的コメモリ規則化によるクラスインクリメンタル学習
- Authors: Kexin Bao, Yong Li, Dan Zeng, Shiming Ge,
- Abstract要約: FSCIL(Few-shot class-incremental Learning)は、少数の新規データからモデルを段階的に学習することを目的としている。
本研究は、FSCILを容易にするための生成的コメモリ正則化手法を提案する。
- 参考スコア(独自算出の注目度): 30.199948683306697
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot class-incremental learning (FSCIL) aims to incrementally learn models from a small amount of novel data, which requires strong representation and adaptation ability of models learned under few-example supervision to avoid catastrophic forgetting on old classes and overfitting to novel classes. This work proposes a generative co-memory regularization approach to facilitate FSCIL. In the approach, the base learning leverages generative domain adaptation finetuning to finetune a pretrained generative encoder on a few examples of base classes by jointly incorporating a masked autoencoder (MAE) decoder for feature reconstruction and a fully-connected classifier for feature classification, which enables the model to efficiently capture general and adaptable representations. Using the finetuned encoder and learned classifier, we construct two class-wise memories: representation memory for storing the mean features for each class, and weight memory for storing the classifier weights. After that, the memory-regularized incremental learning is performed to train the classifier dynamically on the examples of few-shot classes in each incremental session by simultaneously optimizing feature classification and co-memory regularization. The memories are updated in a class-incremental manner and they collaboratively regularize the incremental learning. In this way, the learned models improve recognition accuracy, while mitigating catastrophic forgetting over old classes and overfitting to novel classes. Extensive experiments on popular benchmarks clearly demonstrate that our approach outperforms the state-of-the-arts.
- Abstract(参考訳): FSCIL(Few-shot class-incremental Learning)は、少数の新しいデータからモデルを段階的に学習することを目的としている。
本研究は、FSCILを容易にするための生成的コメモリ正則化手法を提案する。
提案手法では,機能再構成のためのマスク付きオートエンコーダ(MAE)デコーダと,特徴分類のための完全連結型分類器を併用することにより,事前訓練された生成エンコーダを基礎クラスのいくつかの例で微調整する。
微調整エンコーダと学習型クラシファイタを用いて,各クラスの平均特徴を記憶する表現メモリと,重みを記憶する重みメモリの2つのクラスワイドメモリを構築する。
その後、メモリ正規化インクリメンタル学習を行い、特徴分類とコメモリ正規化を同時に最適化することにより、各インクリメンタルセッションにおける少数ショットクラスの例に基づいて、分類器を動的に訓練する。
記憶はクラスインクリメンタルな方法で更新され、インクリメンタルな学習を協調的に調整する。
このようにして、学習したモデルは認識精度を向上し、古いクラスを忘れ、新しいクラスに過度に適合することを緩和する。
一般的なベンチマークに関する大規模な実験は、我々のアプローチが最先端の手法よりも優れていることを明らかに示している。
関連論文リスト
- Memory-Modular Classification: Learning to Generalize with Memory Replacement [79.772454831493]
本稿では,知識記憶と推論を分離した画像分類のためのメモリモジュール学習手法を提案する。
我々のモデルは、メモリ内容を置き換えるだけで、新しいクラスを効果的に一般化することができる。
実験の結果,提案手法の有望な性能と汎用性を示した。
論文 参考訳(メタデータ) (2025-04-08T13:26:24Z) - CAARMA: Class Augmentation with Adversarial Mixup Regularization [59.938216853878636]
話者検証は典型的なゼロショット学習課題である。
クラス拡張フレームワークであるCAARMAを紹介する。
当社のフレームワークは,すべてのベースラインモデルに対して,8%の大幅な改善を実現しています。
論文 参考訳(メタデータ) (2025-03-20T21:41:16Z) - Efficient Non-Exemplar Class-Incremental Learning with Retrospective Feature Synthesis [21.348252135252412]
現在のNon-Exemplar Class-Incremental Learning (NECIL)メソッドは、クラス毎に1つのプロトタイプを格納することで、忘れを軽減している。
そこで本研究では,より効率的なNECIL手法を提案する。
提案手法は,非経験的クラスインクリメンタル学習の効率を大幅に向上させ,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-11-03T07:19:11Z) - AttriCLIP: A Non-Incremental Learner for Incremental Knowledge Learning [53.32576252950481]
連続学習は、モデルが逐次到着したデータから段階的に知識を学習できるようにすることを目的としている。
本稿では,新しいクラスやタスクの知識を段階的に抽出する,AttriCLIPという非インクリメンタル学習手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T07:39:17Z) - Cross-Class Feature Augmentation for Class Incremental Learning [45.91253737682168]
本稿では,敵対的攻撃を動機とした機能強化手法を取り入れた新しいクラスインクリメンタルラーニング手法を提案する。
提案手法は,任意の対象クラスの特徴を増大させるため,クラスインクリメンタルラーニングにおける従来の知識を活用するためのユニークな視点を持つ。
提案手法は,様々なシナリオにおいて,既存の段階的学習手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-04-04T15:48:09Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。