論文の概要: Divide and Conquer: Static-Dynamic Collaboration for Few-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2601.08448v1
- Date: Tue, 13 Jan 2026 11:18:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.168453
- Title: Divide and Conquer: Static-Dynamic Collaboration for Few-Shot Class-Incremental Learning
- Title(参考訳): Divide and Conquer:Few-Shot Class-Incremental Learningのための静的動的コラボレーション
- Authors: Kexin Bao, Daichi Zhang, Yong Li, Dan Zeng, Shiming Ge,
- Abstract要約: クラス増分学習は、限られたデータの下で新しいクラスを継続的に認識することを目的としている。
本稿では,安定性と塑性のトレードオフを改善するため,静的動的コラボレーションというフレームワークを提案する。
両段階を併用することにより,新しいクラスに継続的に適応しながら,古い知識の保持を向上する。
- 参考スコア(独自算出の注目度): 29.237877675710877
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot class-incremental learning (FSCIL) aims to continuously recognize novel classes under limited data, which suffers from the key stability-plasticity dilemma: balancing the retention of old knowledge with the acquisition of new knowledge. To address this issue, we divide the task into two different stages and propose a framework termed Static-Dynamic Collaboration (SDC) to achieve a better trade-off between stability and plasticity. Specifically, our method divides the normal pipeline of FSCIL into Static Retaining Stage (SRS) and Dynamic Learning Stage (DLS), which harnesses old static and incremental dynamic class information, respectively. During SRS, we train an initial model with sufficient data in the base session and preserve the key part as static memory to retain fundamental old knowledge. During DLS, we introduce an extra dynamic projector jointly trained with the previous static memory. By employing both stages, our method achieves improved retention of old knowledge while continuously adapting to new classes. Extensive experiments on three public benchmarks and a real-world application dataset demonstrate that our method achieves state-of-the-art performance against other competitors.
- Abstract(参考訳): FSCIL(Few-shot class-incremental Learning)は、新しい知識の獲得と古い知識の保持のバランスをとるという、安定性と塑性の重要なジレンマに苦しむ、限られたデータの下で新しいクラスを継続的に認識することを目的としている。
この問題に対処するため,課題を2つの異なる段階に分割し,安定性と可塑性のトレードオフを改善するためのSDC(Static-Dynamic Collaboration)というフレームワークを提案する。
具体的には、FSCILの通常のパイプラインを静的保持段階(SRS)と動的学習段階(DLS)に分割し、それぞれ古い静的および漸進的な動的クラス情報を利用する。
SRS中、ベースセッションで十分なデータを持つ初期モデルをトレーニングし、キー部分を静的メモリとして保持し、基本的な古い知識を保持する。
DLSでは,従来の静的メモリを併用した動的プロジェクタが導入された。
両段階を併用することにより,新しいクラスに継続的に適応しながら,古い知識の保持を向上する。
3つの公開ベンチマークと実世界のアプリケーションデータセットに関する大規模な実験は、我々の手法が他の競合相手に対して最先端のパフォーマンスを達成することを実証している。
関連論文リスト
- Multi-Level Knowledge Distillation and Dynamic Self-Supervised Learning for Continual Learning [29.379585617313552]
繰り返しを伴うクラスインクリメンタル(CIR)は、従来のクラスインクリメンタルセットアップよりも現実的なシナリオです。
CIRで訓練されたモデルの安定性と可塑性を確保するために,ラベルのないデータを効率的に利用する2つのコンポーネントを提案する。
CVPR 5th CLVISION Challengeでは,両コンポーネントともCIRセットアップの性能が著しく向上し,第2位となった。
論文 参考訳(メタデータ) (2025-08-18T07:50:20Z) - Multi-level Collaborative Distillation Meets Global Workspace Model: A Unified Framework for OCIL [38.72433556055473]
Online Class-Incremental Learning (OCIL) は、非i.d.データストリームからモデルを継続的に学習することを可能にする。
OCILは、厳格なメモリ制約の下でモデルの安定性を維持すること、新しいタスクへの適応性を確保することの2つの主要な課題に直面している。
グローバルワークスペースモデル(GWM)によるアンサンブル学習を強化する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-08-12T06:52:33Z) - SplitLoRA: Balancing Stability and Plasticity in Continual Learning Through Gradient Space Splitting [68.00007494819798]
継続的な学習には、安定性を保ちながら複数のタスクを連続的に学習するモデルが必要である。
グラディエント・プロジェクションはCLにおいて有効で一般的なパラダイムとして現れ、以前に学習したタスクの勾配空間を2つの部分空間に分割する。
新しいタスクは小部分空間内で効果的に学習され、これにより以前取得した知識との干渉が軽減される。
既存の勾配射影法は、勾配空間を適切に分割することが困難であるため、塑性と安定性の最適なバランスを達成するのに苦労する。
論文 参考訳(メタデータ) (2025-05-28T13:57:56Z) - Inclusive Training Separation and Implicit Knowledge Interaction for Balanced Online Class-Incremental Learning [6.2792786251529575]
オンラインクラスインクリメンタルラーニング(OCIL)は、シングルパスのデータストリームから新しいクラス(可塑性と呼ばれる)を徐々に学習することに焦点を当てている。
OCILの最大の課題は、古いクラスと新しいクラスの知識のバランスを保つことである。
本稿では,高可塑性と安定性の両立を実現するための新しいリプレイベース手法である Balanced Online Incremental Learning (BOIL) を提案する。
論文 参考訳(メタデータ) (2025-04-29T09:13:00Z) - Mamba-FSCIL: Dynamic Adaptation with Selective State Space Model for Few-Shot Class-Incremental Learning [115.79349923044663]
FSCIL(Few-shot class-incremental Learning)は、限られた例から新しいクラスを段階的に学習することを目的としている。
静的アーキテクチャは固定パラメータ空間に依存して、逐次到着するデータから学習し、現在のセッションに過度に適合する傾向がある。
本研究では,FSCILにおける選択状態空間モデル(SSM)の可能性について検討する。
論文 参考訳(メタデータ) (2024-07-08T17:09:39Z) - Branch-Tuning: Balancing Stability and Plasticity for Continual Self-Supervised Learning [33.560003528712414]
自己教師付き学習(SSL)は、膨大な量のラベルのないデータから一般的な表現を導出するための効果的なパラダイムとして登場した。
これは、新しい情報に適応する際の安定性と可塑性のバランスを崩すことに挑戦する。
本稿では,SSLの安定性と可塑性のバランスを両立させる手法であるブランチチューニングを提案する。
論文 参考訳(メタデータ) (2024-03-27T05:38:48Z) - Static-Dynamic Co-Teaching for Class-Incremental 3D Object Detection [71.18882803642526]
ディープラーニングアプローチは、3Dオブジェクト検出タスクにおいて顕著なパフォーマンスを示している。
古いデータを再考することなく、新しいクラスを漸進的に学習するときに、破滅的なパフォーマンス低下に悩まされる。
この「破滅的な忘れ物」現象は、現実世界のシナリオにおける3Dオブジェクト検出アプローチの展開を妨げる。
SDCoTは,新しい静的なコティーチング手法である。
論文 参考訳(メタデータ) (2021-12-14T09:03:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。