論文の概要: When Classes Evolve: A Benchmark and Framework for Stage-Aware Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2602.00573v1
- Date: Sat, 31 Jan 2026 07:32:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.260718
- Title: When Classes Evolve: A Benchmark and Framework for Stage-Aware Class-Incremental Learning
- Title(参考訳): 段階的学習のためのベンチマークとフレームワーク
- Authors: Zheng Zhang, Tao Hu, Xueheng Li, Yang Wang, Rui Li, Jie Zhang, Chengjun Xie,
- Abstract要約: CIL(Class-Incremental Learning)は、それまでの学習知識の破滅的な忘れを軽減しつつ、新しいクラスを逐次学習することを目的としている。
本稿では,各クラスを異なる形態的段階から段階的に学習するパラダイムであるStage-Aware CILを提案する。
また,固定サイズのメモリプール内で抽象的かつ伝達可能な進化パターンを明示的に学習する新しい方法STAGEを提案する。
- 参考スコア(独自算出の注目度): 17.13390892482038
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class-Incremental Learning (CIL) aims to sequentially learn new classes while mitigating catastrophic forgetting of previously learned knowledge. Conventional CIL approaches implicitly assume that classes are morphologically static, focusing primarily on preserving previously learned representations as new classes are introduced. However, this assumption neglects intra-class evolution: a phenomenon wherein instances of the same semantic class undergo significant morphological transformations, such as a larva turning into a butterfly. Consequently, a model must both discriminate between classes and adapt to evolving appearances within a single class. To systematically address this challenge, we formalize Stage-Aware CIL (Stage-CIL), a paradigm in which each class is learned progressively through distinct morphological stages. To facilitate rigorous evaluation within this paradigm, we introduce the Stage-Bench, a 10-domain, 2-stages dataset and protocol that jointly measure inter- and intra-class forgetting. We further propose STAGE, a novel method that explicitly learns abstract and transferable evolution patterns within a fixed-size memory pool. By decoupling semantic identity from transformation dynamics, STAGE enables accurate prediction of future morphologies based on earlier representations. Extensive empirical evaluation demonstrates that STAGE consistently and substantially outperforms existing state-of-the-art approaches, highlighting its effectiveness in simultaneously addressing inter-class discrimination and intra-class morphological adaptation.
- Abstract(参考訳): CIL(Class-Incremental Learning)は、それまでの学習知識の破滅的な忘れを軽減しつつ、新しいクラスを逐次学習することを目的としている。
従来のCILアプローチでは、クラスがモルフォロジー的に静的であると暗黙的に仮定しており、主に新しいクラスが導入されるにつれて、以前に学習された表現を保存することに焦点を当てている。
しかし、この仮定はクラス内での進化を無視しており、同じ意味クラスの個体が幼虫が蝶に変わるなど、重要な形態変化を行う現象である。
その結果、モデルはクラスを区別し、単一のクラス内で進化する外観に適応する必要がある。
この課題に体系的に対処するために、各クラスが異なる形態的段階を通して徐々に学習されるパラダイムであるStage-Aware CIL(Stage-CIL)を定式化する。
このパラダイム内で厳密な評価を容易にするために,10ドメイン2ステージのデータセットとプロトコルであるStage-Benchを導入する。
さらに,固定サイズのメモリプール内で抽象的かつ伝達可能な進化パターンを明示的に学習する新しい方法STAGEを提案する。
意味的アイデンティティを変換力学から切り離すことで、STAGEは以前の表現に基づく将来の形態の正確な予測を可能にする。
広範囲にわたる経験的評価は、STAGEが既存の最先端アプローチを一貫して、実質的に上回り、クラス間差別とクラス内形態的適応を同時に解決する効果を強調していることを示している。
関連論文リスト
- Learning Yourself: Class-Incremental Semantic Segmentation with Language-Inspired Bootstrapped Disentanglement [10.912635927529218]
CISS(Class-Incremental Semantic)は、過去の授業の知識を維持しながら、新しく導入されたクラスの継続的な学習を必要とする。
この現象には、インクリメンタルなプロセス中に意味的ミスアライメントによって引き起こされるプロトタイプ・フィーチャー・エンタングルメントと、動的データ進化によるバックグラウンド・インクリメント・エンタングルメントが含まれる。
言語にインスパイアされたBootstrapped Disentanglement framework (LBD)を紹介する。
我々はPascal VOCとADE20kの両方で、特にマルチステップシナリオで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-08-30T15:18:58Z) - Mamba-FSCIL: Dynamic Adaptation with Selective State Space Model for Few-Shot Class-Incremental Learning [115.79349923044663]
FSCIL(Few-shot class-incremental Learning)は、限られた例から新しいクラスを段階的に学習することを目的としている。
静的アーキテクチャは固定パラメータ空間に依存して、逐次到着するデータから学習し、現在のセッションに過度に適合する傾向がある。
本研究では,FSCILにおける選択状態空間モデル(SSM)の可能性について検討する。
論文 参考訳(メタデータ) (2024-07-08T17:09:39Z) - Tendency-driven Mutual Exclusivity for Weakly Supervised Incremental Semantic Segmentation [56.1776710527814]
Weakly Incremental Learning for Semantic (WILSS)は、トレーニング済みのセグメンテーションモデルを利用して、コスト効率と手軽に利用できるイメージレベルのラベルを使用して、新しいクラスをセグメンテーションする。
WILSSを解く最も一般的な方法は、各新しいクラスのシード領域の生成であり、ピクセルレベルの監視の一形態として機能する。
本研究は, 種子領域の挙動を綿密に調整した, 相互排他性に関する革新的, 傾向的関係について提案する。
論文 参考訳(メタデータ) (2024-04-18T08:23:24Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Subclass-balancing Contrastive Learning for Long-tailed Recognition [38.31221755013738]
不均衡なクラス分布を持つロングテール認識は、実践的な機械学習アプリケーションで自然に現れる。
そこで我々は,各ヘッドクラスを複数のサブクラスにクラスタリングする,新しいサブクラスバランス・コントラッシブ・ラーニング・アプローチを提案する。
我々は,長期化ベンチマークデータセットの一覧からSBCLを評価し,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-06-28T05:08:43Z) - Prototypical quadruplet for few-shot class incremental learning [24.814045065163135]
改良されたコントラスト損失を用いて,より優れた埋め込み空間を同定し,分類ロバスト性を向上させる手法を提案する。
我々のアプローチは、新しいクラスで訓練された場合でも、埋め込み空間で以前獲得した知識を保っている。
提案手法の有効性は,新しいクラスでモデルを訓練した後,組込み空間がそのままであることを示すとともに,各セッションの精度で既存の最先端アルゴリズムより優れていることを示すことで実証する。
論文 参考訳(メタデータ) (2022-11-05T17:19:14Z) - DILF-EN framework for Class-Incremental Learning [9.969403314560179]
モデル予測における破滅的忘れの影響は,同じ画像の向きの変化によって異なることを示す。
本稿では,画像の異なる方向の予測を組み合わせた新しいデータアンサンブル手法を提案する。
また、2つの漸進的な学習目標でネットワークを協調的に訓練する新しい2段階学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-23T06:49:24Z) - Mimicking the Oracle: An Initial Phase Decorrelation Approach for Class Incremental Learning [141.35105358670316]
本研究では,Na"訓練初期相モデルとオラクルモデルとの相違について検討する。
より均一に散らばるように,各クラスの表現を効果的に正規化するクラスワイド・デコレーション(CwD)を提案する。
私たちのCwDは実装が簡単で、既存のメソッドに簡単にプラグインできます。
論文 参考訳(メタデータ) (2021-12-09T07:20:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。