論文の概要: Unlocking Prototype Potential: An Efficient Tuning Framework for Few-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2602.05271v1
- Date: Thu, 05 Feb 2026 03:50:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.749896
- Title: Unlocking Prototype Potential: An Efficient Tuning Framework for Few-Shot Class-Incremental Learning
- Title(参考訳): プロトタイプポテンシャルのアンロック:Few-Shotクラスインクリメンタル学習のための効率的なチューニングフレームワーク
- Authors: Shengqin Jiang, Xiaoran Feng, Yuankai Qi, Haokui Zhang, Renlong Hang, Qingshan Liu, Lina Yao, Quan Z. Sheng, Ming-Hsuan Yang,
- Abstract要約: FSCIL(Few-shot class-incremental Learning)は、非常に限られたサンプルから新しいクラスを継続的に学習することを目的としている。
本稿では,静的セントロイドを動的に学習可能なコンポーネントに進化させる,効率的なファインチューニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 69.28860905525057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot class-incremental learning (FSCIL) seeks to continuously learn new classes from very limited samples while preserving previously acquired knowledge. Traditional methods often utilize a frozen pre-trained feature extractor to generate static class prototypes, which suffer from the inherent representation bias of the backbone. While recent prompt-based tuning methods attempt to adapt the backbone via minimal parameter updates, given the constraint of extreme data scarcity, the model's capacity to assimilate novel information and substantively enhance its global discriminative power is inherently limited. In this paper, we propose a novel shift in perspective: freezing the feature extractor while fine-tuning the prototypes. We argue that the primary challenge in FSCIL is not feature acquisition, but rather the optimization of decision regions within a static, high-quality feature space. To this end, we introduce an efficient prototype fine-tuning framework that evolves static centroids into dynamic, learnable components. The framework employs a dual-calibration method consisting of class-specific and task-aware offsets. These components function synergistically to improve the discriminative capacity of prototypes for ongoing incremental classes. Extensive results demonstrate that our method attains superior performance across multiple benchmarks while requiring minimal learnable parameters.
- Abstract(参考訳): FSCIL(Few-shot class-incremental Learning)は、これまで獲得した知識を保ちながら、非常に限られたサンプルから新しいクラスを継続的に学習することを目的としている。
従来の手法では、しばしば凍結した事前訓練された特徴抽出器を使用して静的なクラスプロトタイプを生成するが、これはバックボーン固有の表現バイアスに悩まされている。
最近のプロンプトベースのチューニング手法は、極度のデータ不足の制約を考えると、バックボーンを最小限のパラメータ更新によって適応させようとするが、新しい情報を同化し、そのグローバルな識別力を大幅に増強する能力は本質的に制限されている。
本稿では,プロトタイプを微調整しながら特徴抽出器を凍結する,新しい視点のシフトを提案する。
FSCILの最大の課題は、機能獲得ではなく、静的で高品質な機能空間における決定領域の最適化である。
そこで本稿では,静的セントロイドを動的に学習可能なコンポーネントに進化させる,効率的なファインチューニングフレームワークを提案する。
このフレームワークでは、クラス固有のオフセットとタスク対応オフセットからなる二重校正方式を採用している。
これらのコンポーネントは、継続するインクリメンタルクラスのためのプロトタイプの識別能力を改善するために相乗的に機能する。
その結果,本手法は,学習可能なパラメータを最小限に抑えながら,複数のベンチマークにおいて優れた性能を発揮することが示された。
関連論文リスト
- MoTiC: Momentum Tightness and Contrast for Few-Shot Class-Incremental Learning [20.22260611239967]
FSCIL(Few-Shot Class-Incremental Learning)は、古いクラス知識を維持しながらサンプル不足から新しいクラスを学ぶという2つの課題と競合しなければならない。
新クラスのプロトタイプは、極端なデータ不足のためにかなりの推定バイアスを被り、一方、ベースクラスのプロトタイプは十分なデータから恩恵を受ける。
ベイズ解析による新クラスの先行データと旧クラスの統計値との整合性は分散を減少させ,プロトタイプの精度を向上することを示す。
論文 参考訳(メタデータ) (2025-09-24T00:41:40Z) - Adaptive Additive Parameter Updates of Vision Transformers for Few-Shot Continual Learning [0.0]
FSCIL(Few-shot class incremental learning)は、最初にベースクラスの堅牢なデータセット上でモデルをトレーニングし、連続したセッションでそれを漸進的に適応することによって、この問題に対処する。
このアプローチは、制限された新しいデータに過度に適合する傾向があり、全体的なパフォーマンスを損なうとともに、忘れを悪化させる可能性がある。
パラメータ効率のよい加算更新を付加した凍結型ビジョントランスフォーマー(ViT)バックボーンを利用する新しいFSCILフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-11T21:17:30Z) - Efficient Non-Exemplar Class-Incremental Learning with Retrospective Feature Synthesis [21.348252135252412]
現在のNon-Exemplar Class-Incremental Learning (NECIL)メソッドは、クラス毎に1つのプロトタイプを格納することで、忘れを軽減している。
そこで本研究では,より効率的なNECIL手法を提案する。
提案手法は,非経験的クラスインクリメンタル学習の効率を大幅に向上させ,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-11-03T07:19:11Z) - Mamba-FSCIL: Dynamic Adaptation with Selective State Space Model for Few-Shot Class-Incremental Learning [115.79349923044663]
FSCIL(Few-shot class-incremental Learning)は、限られた例から新しいクラスを段階的に学習することを目的としている。
静的アーキテクチャは固定パラメータ空間に依存して、逐次到着するデータから学習し、現在のセッションに過度に適合する傾向がある。
本研究では,FSCILにおける選択状態空間モデル(SSM)の可能性について検討する。
論文 参考訳(メタデータ) (2024-07-08T17:09:39Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Self-Promoted Prototype Refinement for Few-Shot Class-Incremental
Learning [81.10531943939365]
クラスインクリメンタルな学習は、サンプルが少ないと新しいクラスを認識し、古いクラスを忘れないことである。
本稿では,様々なエピソードに特徴表現を適応させる新しいインクリメンタルなプロトタイプ学習手法を提案する。
3つのベンチマークデータセットの実験では、上記の段階的なパフォーマンスを示し、それぞれ13%、17%、11%のマージンで最先端のメソッドを上回っている。
論文 参考訳(メタデータ) (2021-07-19T14:31:33Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。