論文の概要: Strategic Base Representation Learning via Feature Augmentations for Few-Shot Class Incremental Learning
- arxiv url: http://arxiv.org/abs/2501.09361v1
- Date: Thu, 16 Jan 2025 08:17:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:10:17.230652
- Title: Strategic Base Representation Learning via Feature Augmentations for Few-Shot Class Incremental Learning
- Title(参考訳): Few-Shot Class Incremental Learningのための特徴拡張による戦略的ベース表現学習
- Authors: Parinita Nema, Vinod K Kurmi,
- Abstract要約: クラスインクリメンタルな学習は、学習済みのクラスの知識を少数のトレーニングインスタンスで保持しながら、新しいクラスを学習するモデルを意味する。
既存のフレームワークは通常、新しいクラスを組み込む際に、以前に学んだクラスのパラメータを凍結する。
本稿では,新しいクラスに対応するために,事前学習したクラスの分離を強化するために,機能拡張駆動型コントラスト学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.5269945475810085
- License:
- Abstract: Few-shot class incremental learning implies the model to learn new classes while retaining knowledge of previously learned classes with a small number of training instances. Existing frameworks typically freeze the parameters of the previously learned classes during the incorporation of new classes. However, this approach often results in suboptimal class separation of previously learned classes, leading to overlap between old and new classes. Consequently, the performance of old classes degrades on new classes. To address these challenges, we propose a novel feature augmentation driven contrastive learning framework designed to enhance the separation of previously learned classes to accommodate new classes. Our approach involves augmenting feature vectors and assigning proxy labels to these vectors. This strategy expands the feature space, ensuring seamless integration of new classes within the expanded space. Additionally, we employ a self-supervised contrastive loss to improve the separation between previous classes. We validate our framework through experiments on three FSCIL benchmark datasets: CIFAR100, miniImageNet, and CUB200. The results demonstrate that our Feature Augmentation driven Contrastive Learning framework significantly outperforms other approaches, achieving state-of-the-art performance.
- Abstract(参考訳): クラスインクリメンタルな学習は、学習済みのクラスの知識を少数のトレーニングインスタンスで保持しながら、新しいクラスを学習するモデルを意味する。
既存のフレームワークは通常、新しいクラスを組み込む際に、以前に学んだクラスのパラメータを凍結する。
しかし、このアプローチは、しばしば、以前に学んだクラスの最適クラス分離をもたらし、古いクラスと新しいクラスの間に重複する。
その結果、古いクラスのパフォーマンスは、新しいクラスで低下する。
これらの課題に対処するため、我々は、新しいクラスに対応するために、以前に学習したクラスの分離を強化するために、機能拡張駆動型コントラスト学習フレームワークを提案する。
当社のアプローチでは、特徴ベクトルを増設し、これらのベクトルにプロキシラベルを割り当てる。
この戦略は機能領域を拡張し、拡張された空間内で新しいクラスをシームレスに統合することを保証する。
さらに,従来のクラス間の分離を改善するために,自己監督型コントラスト損失を用いる。
CIFAR100, miniImageNet, CUB200という3つのFSCILベンチマークデータセットの実験を通じてフレームワークを検証する。
その結果、我々の機能拡張駆動型コントラスト学習フレームワークは、最先端のパフォーマンスを達成し、他のアプローチよりも大幅に優れていることが示された。
関連論文リスト
- Efficient Non-Exemplar Class-Incremental Learning with Retrospective Feature Synthesis [21.348252135252412]
現在のNon-Exemplar Class-Incremental Learning (NECIL)メソッドは、クラス毎に1つのプロトタイプを格納することで、忘れを軽減している。
そこで本研究では,より効率的なNECIL手法を提案する。
提案手法は,非経験的クラスインクリメンタル学習の効率を大幅に向上させ,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-11-03T07:19:11Z) - Expandable Subspace Ensemble for Pre-Trained Model-Based Class-Incremental Learning [65.57123249246358]
PTMベースのCILのためのExpAndable Subspace Ensemble (EASE)を提案する。
タスク固有のサブスペースを作成することを目的として、新しいタスクごとに異なる軽量アダプタモジュールをトレーニングする。
我々のプロトタイプ補完戦略は、古いクラスのインスタンスを使わずに、古いクラスの新機能を合成します。
論文 参考訳(メタデータ) (2024-03-18T17:58:13Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Cross-Class Feature Augmentation for Class Incremental Learning [45.91253737682168]
本稿では,敵対的攻撃を動機とした機能強化手法を取り入れた新しいクラスインクリメンタルラーニング手法を提案する。
提案手法は,任意の対象クラスの特徴を増大させるため,クラスインクリメンタルラーニングにおける従来の知識を活用するためのユニークな視点を持つ。
提案手法は,様々なシナリオにおいて,既存の段階的学習手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-04-04T15:48:09Z) - Class-Incremental Learning with Cross-Space Clustering and Controlled
Transfer [9.356870107137093]
クラス増分学習では,従来のクラスに関する知識を維持しつつ,新しいクラスを継続的に学習することが期待される。
クラスインクリメンタルラーニングのための蒸留法に基づく2つの目的を提案する。
論文 参考訳(メタデータ) (2022-08-07T16:28:02Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Long-tail Recognition via Compositional Knowledge Transfer [60.03764547406601]
末尾クラスの少数ショット問題に対処する長尾認識のための新しい戦略を導入する。
我々の目標は、情報に富んだ共通クラスから得られた知識を、意味的に類似しているがデータに富む稀なクラスに伝達することである。
実験結果から,本手法は稀なクラスにおいて,堅牢な共通クラス性能を維持しつつ,大幅な性能向上を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-13T15:48:59Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Continual Semantic Segmentation via Repulsion-Attraction of Sparse and
Disentangled Latent Representations [18.655840060559168]
本稿では,セマンティックセグメンテーションにおけるクラス連続学習に着目した。
新しいカテゴリは時間とともに利用可能になり、以前のトレーニングデータは保持されない。
提案された連続学習スキームは、潜在空間を形作り、新しいクラスの認識を改善しながら忘れを減らす。
論文 参考訳(メタデータ) (2021-03-10T21:02:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。