論文の概要: MoTiC: Momentum Tightness and Contrast for Few-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2509.19664v1
- Date: Wed, 24 Sep 2025 00:41:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.64525
- Title: MoTiC: Momentum Tightness and Contrast for Few-Shot Class-Incremental Learning
- Title(参考訳): MoTiC:Few-Shot Class-Incremental LearningのためのMomentum Tightness and Contrast
- Authors: Zeyu He, Shuai Huang, Yuwu Lu, Ming Zhao,
- Abstract要約: FSCIL(Few-Shot Class-Incremental Learning)は、古いクラス知識を維持しながらサンプル不足から新しいクラスを学ぶという2つの課題と競合しなければならない。
新クラスのプロトタイプは、極端なデータ不足のためにかなりの推定バイアスを被り、一方、ベースクラスのプロトタイプは十分なデータから恩恵を受ける。
ベイズ解析による新クラスの先行データと旧クラスの統計値との整合性は分散を減少させ,プロトタイプの精度を向上することを示す。
- 参考スコア(独自算出の注目度): 20.22260611239967
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Few-Shot Class-Incremental Learning (FSCIL) must contend with the dual challenge of learning new classes from scarce samples while preserving old class knowledge. Existing methods use the frozen feature extractor and class-averaged prototypes to mitigate against catastrophic forgetting and overfitting. However, new-class prototypes suffer significant estimation bias due to extreme data scarcity, whereas base-class prototypes benefit from sufficient data. In this work, we theoretically demonstrate that aligning the new-class priors with old-class statistics via Bayesian analysis reduces variance and improves prototype accuracy. Furthermore, we propose large-scale contrastive learning to enforce cross-category feature tightness. To further enrich feature diversity and inject prior information for new-class prototypes, we integrate momentum self-supervision and virtual categories into the Momentum Tightness and Contrast framework (MoTiC), constructing a feature space with rich representations and enhanced interclass cohesion. Experiments on three FSCIL benchmarks produce state-of-the-art performances, particularly on the fine-grained task CUB-200, validating our method's ability to reduce estimation bias and improve incremental learning robustness.
- Abstract(参考訳): FSCIL(Few-Shot Class-Incremental Learning)は、古いクラス知識を維持しながらサンプル不足から新しいクラスを学ぶという2つの課題と競合しなければならない。
既存の方法は、凍結した特徴抽出器と、クラス平均のプロトタイプを使用して、破滅的な忘れ物や過度な適合を防ぐ。
しかし、新しいタイプのプロトタイプはデータ不足のためにかなりの推定バイアスを被る一方、ベースクラスのプロトタイプは十分なデータから恩恵を受ける。
本研究は,ベイズ解析による新クラスの先行値と旧クラスの統計値との整合が分散を減少させ,プロトタイプの精度を向上させることを理論的に実証する。
さらに,クロスカテゴリ特徴の厳密性を実現するために,大規模コントラスト学習を提案する。
特徴の多様性をさらに高め、新しいプロトタイプの事前情報を注入するために、モーメントムタイトネス・コントラストフレームワーク(MoTiC)に運動量自己スーパービジョンと仮想カテゴリを統合し、リッチな表現と拡張されたクラス間凝集による特徴空間を構築する。
3つのFSCILベンチマークの実験では、特にきめ細かいタスクCUB-200で、評価バイアスを低減し、漸進的な学習堅牢性を向上する手法の有効性を検証する。
関連論文リスト
- FeNeC: Enhancing Continual Learning via Feature Clustering with Neighbor- or Logit-Based Classification [6.720605329045581]
FeNeC(Feature Neighborhood)とFeNeC-Log(FeNeC-Log)を導入する。
提案手法は,クラスタリングによって既存の概念を一般化し,クラス内変動を増大させる。
タスクの同一性が不明なシナリオでは,2つのFeNeC変種が競合性能を発揮することを示す。
論文 参考訳(メタデータ) (2025-03-18T14:42:38Z) - Bias Mitigating Few-Shot Class-Incremental Learning [17.185744533050116]
クラス増分学習は,限定された新規クラスサンプルを用いて,新規クラスを継続的に認識することを目的としている。
最近の手法では,段階的なセッションで特徴抽出器を微調整することにより,ベースクラスとインクリメンタルクラスの精度の不均衡を緩和している。
本研究では,FSCIL問題におけるモデルバイアスを緩和する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-01T10:37:41Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Prototypical quadruplet for few-shot class incremental learning [24.814045065163135]
改良されたコントラスト損失を用いて,より優れた埋め込み空間を同定し,分類ロバスト性を向上させる手法を提案する。
我々のアプローチは、新しいクラスで訓練された場合でも、埋め込み空間で以前獲得した知識を保っている。
提案手法の有効性は,新しいクラスでモデルを訓練した後,組込み空間がそのままであることを示すとともに,各セッションの精度で既存の最先端アルゴリズムより優れていることを示すことで実証する。
論文 参考訳(メタデータ) (2022-11-05T17:19:14Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Self-Promoted Prototype Refinement for Few-Shot Class-Incremental
Learning [81.10531943939365]
クラスインクリメンタルな学習は、サンプルが少ないと新しいクラスを認識し、古いクラスを忘れないことである。
本稿では,様々なエピソードに特徴表現を適応させる新しいインクリメンタルなプロトタイプ学習手法を提案する。
3つのベンチマークデータセットの実験では、上記の段階的なパフォーマンスを示し、それぞれ13%、17%、11%のマージンで最先端のメソッドを上回っている。
論文 参考訳(メタデータ) (2021-07-19T14:31:33Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。