論文の概要: ConCM: Consistency-Driven Calibration and Matching for Few-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2506.19558v1
- Date: Tue, 24 Jun 2025 12:12:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.619039
- Title: ConCM: Consistency-Driven Calibration and Matching for Few-Shot Class-Incremental Learning
- Title(参考訳): ConCM: クラスインクリメンタル学習のための一貫性駆動型キャリブレーションとマッチング
- Authors: QinZhe Wang, Zixuan Chen, Keke Huang, Xiu Su, Chunhua Yang, Chang Xu,
- Abstract要約: FSCIL(Few-Shot Class-Incremental Learning)は、学習知識を維持しながら、限られた監督力を持つ新しいクラスに適応するモデルを必要とする。
本稿では,FSCIL固有の知識衝突を系統的に軽減する一貫性駆動型幾何マッチングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.915755767447422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-Shot Class-Incremental Learning (FSCIL) requires models to adapt to novel classes with limited supervision while preserving learned knowledge. Existing prospective learning-based space construction methods reserve space to accommodate novel classes. However, prototype deviation and structure fixity limit the expressiveness of the embedding space. In contrast to fixed space reservation, we explore the optimization of feature-structure dual consistency and propose a Consistency-driven Calibration and Matching Framework (ConCM) that systematically mitigate the knowledge conflict inherent in FSCIL. Specifically, inspired by hippocampal associative memory, we design a memory-aware prototype calibration that extracts generalized semantic attributes from base classes and reintegrates them into novel classes to enhance the conceptual center consistency of features. Further, we propose dynamic structure matching, which adaptively aligns the calibrated features to a session-specific optimal manifold space, ensuring cross-session structure consistency. Theoretical analysis shows that our method satisfies both geometric optimality and maximum matching, thereby overcoming the need for class-number priors. On large-scale FSCIL benchmarks including mini-ImageNet and CUB200, ConCM achieves state-of-the-art performance, surpassing current optimal method by 3.20% and 3.68% in harmonic accuracy of incremental sessions.
- Abstract(参考訳): FSCIL(Few-Shot Class-Incremental Learning)は、学習知識を維持しながら、限られた監督力を持つ新しいクラスに適応するモデルを必要とする。
既存の学習に基づく空間構築手法は、新しいクラスに対応するために空間を予約する。
しかし、プロトタイプの偏差と構造固定性は埋め込み空間の表現性を制限する。
固定空間予約とは対照的に,特徴構造二重一貫性の最適化について検討し,FSCIL固有の知識紛争を系統的に緩和する一貫性駆動型校正・マッチングフレームワーク(ConCM)を提案する。
具体的には, 海馬連想記憶に触発されて, 基本クラスから一般化意味的属性を抽出し, 特徴量の概念的中心整合性を高めるために, 新たなクラスに再統合するメモリ・アウェア・プロトタイプ・キャリブレーションを設計する。
さらに, キャリブレーションされた特徴をセッション固有な最適多様体空間に適応的にアライメントし, 断続的構造整合性を確保する動的構造マッチングを提案する。
理論的解析により, この手法は幾何最適性と最大マッチングの両方を満たすことが示され, クラス数先行の必要性を克服する。
mini-ImageNet や CUB200 などの大規模 FSCIL ベンチマークでは、ConCM は現在の最適手法を3.20% と 3.68% の高調波精度で上回り、最先端のパフォーマンスを達成している。
関連論文リスト
- Feature Calibration enhanced Parameter Synthesis for CLIP-based Class-incremental Learning [10.253058594622017]
クラスインクリメンタルラーニング(Class-Incremental Learning, CIL)は、モデルが従来のクラスを維持しながら、新しいクラスの知識を継続的に学習することを可能にする。
従来のCILメソッドは主に視覚的特徴に依存しており、複雑なマルチモーダルシナリオでの有効性を制限している。
モデル固有の一般化能力を保ちながら破滅的な一般化を緩和する特徴強化合成(FCPS)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-24T13:44:12Z) - Semi-supervised Semantic Segmentation with Multi-Constraint Consistency Learning [81.02648336552421]
本稿では,エンコーダとデコーダの段階的拡張を容易にするためのマルチ制約一貫性学習手法を提案する。
自己適応型特徴マスキングとノイズ注入は、デコーダの堅牢な学習のための特徴を摂動させるために、インスタンス固有の方法で設計されている。
Pascal VOC2012およびCityscapesデータセットの実験結果から,提案したMCCLが新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2025-03-23T03:21:33Z) - Mamba-FSCIL: Dynamic Adaptation with Selective State Space Model for Few-Shot Class-Incremental Learning [113.89327264634984]
FSCIL(Few-shot class-incremental Learning)は、最小限のトレーニングサンプルを持つモデルに新しいクラスを統合するという課題に直面している。
従来の手法では、固定パラメータ空間に依存する静的適応を広く採用し、逐次到着するデータから学習する。
本稿では、動的適応のための中間特徴に基づいてプロジェクションパラメータを動的に調整する2つの選択型SSMプロジェクタを提案する。
論文 参考訳(メタデータ) (2024-07-08T17:09:39Z) - Consistency-Guided Asynchronous Contrastive Tuning for Few-Shot Class-Incremental Tuning of Foundation Models [19.165004570789755]
CoACTは、(i)非同期コントラストチューニング、(ii)制御された微調整、(iii)一貫性のあるインクリメンタルチューニングの3つの重要なコンポーネントから構成される。
提案したFew-Shot Class-Incremental Learning (FSCIL)とFew-Shot Class-Incremental Tuning (FSCIT)と呼ばれる新しい挑戦的なセットアップについて検討した。
CoACTは、FSCILで最大5.02%、個々のデータセットで最大12.51%、平均2.47%改善している。
論文 参考訳(メタデータ) (2024-05-26T16:41:03Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Switchable Representation Learning Framework with Self-compatibility [50.48336074436792]
自己整合性(SFSC)を考慮した交換可能な表現学習フレームワークを提案する。
SFSCは1つのトレーニングプロセスを通じて、異なる能力を持つ一連の互換性のあるサブモデルを生成する。
SFSCは評価データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-06-16T16:46:32Z) - Incremental Few-Shot Learning via Implanting and Compressing [13.122771115838523]
増分的なFew-Shot Learningは、いくつかの例から新しいクラスを継続的に学習するモデルを必要とする。
我々はtextbfImplanting と textbfCompressing と呼ばれる2段階の学習戦略を提案する。
具体的には、textbfImplantingのステップにおいて、新しいクラスのデータ分布をデータ・アサンダント・ベース・セットの助けを借りて模倣することを提案する。
textbfのステップでは、特徴抽出器を各新規クラスを正確に表現し、クラス内コンパクト性を高める。
論文 参考訳(メタデータ) (2022-03-19T11:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。