論文の概要: Feature-Space Generative Models for One-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2601.17905v1
- Date: Sun, 25 Jan 2026 16:45:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.524664
- Title: Feature-Space Generative Models for One-Shot Class-Incremental Learning
- Title(参考訳): ワンショットクラスインクリメンタル学習のための特徴空間生成モデル
- Authors: Jack Foster, Kirill Paramonov, Mete Ozay, Umberto Michieli,
- Abstract要約: FSCIL(Few-shot class-incremental Learning)は、最初にベースクラスのデータセットで訓練されたモデルが、限られたデータで新しいクラスを認識することで、拡大する問題空間に適応しなければならないパラダイムである。
本稿では,ベースクラスと新しいクラス埋め込みが構造的類似性を持つという仮説に基づく新しいアプローチを提案する。
我々のアプローチであるGen1Sは、複数のベンチマークやバックボーンアーキテクチャにわたって、最先端技術に対する新しいクラス認識を一貫して改善します。
- 参考スコア(独自算出の注目度): 33.77408261771739
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Few-shot class-incremental learning (FSCIL) is a paradigm where a model, initially trained on a dataset of base classes, must adapt to an expanding problem space by recognizing novel classes with limited data. We focus on the challenging FSCIL setup where a model receives only a single sample (1-shot) for each novel class and no further training or model alterations are allowed after the base training phase. This makes generalization to novel classes particularly difficult. We propose a novel approach predicated on the hypothesis that base and novel class embeddings have structural similarity. We map the original embedding space into a residual space by subtracting the class prototype (i.e., the average class embedding) of input samples. Then, we leverage generative modeling with VAE or diffusion models to learn the multi-modal distribution of residuals over the base classes, and we use this as a valuable structural prior to improve recognition of novel classes. Our approach, Gen1S, consistently improves novel class recognition over the state of the art across multiple benchmarks and backbone architectures.
- Abstract(参考訳): FSCIL(Few-shot class-incremental Learning)は、最初にベースクラスのデータセットで訓練されたモデルが、限られたデータで新しいクラスを認識することで、拡大する問題空間に適応しなければならないパラダイムである。
モデルが新規クラスごとに1つのサンプル(1ショット)のみを受信し、ベーストレーニングフェーズ後にそれ以上のトレーニングやモデル変更が許可されないような、挑戦的なFSCIL設定に焦点をあてる。
これにより、新しいクラスへの一般化が特に困難になる。
本稿では,ベースクラスと新しいクラス埋め込みが構造的類似性を持つという仮説に基づく新しいアプローチを提案する。
入力サンプルのクラスプロトタイプ(平均クラス埋め込み)を減算することにより、元の埋め込み空間を残留空間にマッピングする。
次に,VAEモデルや拡散モデルを用いた生成モデルを用いて,基本クラス上の残差のマルチモーダル分布を学習する。
我々のアプローチであるGen1Sは、複数のベンチマークとバックボーンアーキテクチャにまたがる最先端のクラス認識を一貫して改善します。
関連論文リスト
- Enhancing Generalized Few-Shot Semantic Segmentation via Effective Knowledge Transfer [15.50724392647955]
汎用的な少数ショットセマンティックセマンティックセマンティクス(GFSS)は、ベースクラスと新規クラスの両方のオブジェクトをセマンティクスすることを目的としている。
本研究では,文脈整合性学習方式を導入し,文脈知識をベースクラスから新しいクラスへ伝達する。
本手法はGFSS設定における技量を著しく向上させる。
論文 参考訳(メタデータ) (2024-12-20T12:25:33Z) - Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Adaptive Distribution Calibration for Few-Shot Learning with
Hierarchical Optimal Transport [78.9167477093745]
本稿では,新しいサンプルとベースクラス間の適応重み行列を学習し,新しい分布校正法を提案する。
標準ベンチマーク実験の結果,提案したプラグ・アンド・プレイモデルの方が競合する手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-09T02:32:57Z) - Class-incremental Novel Class Discovery [76.35226130521758]
クラス増進型新規クラス発見(class-iNCD)の課題について検討する。
基本クラスに関する過去の情報を忘れないようにする,クラスiNCDのための新しい手法を提案する。
3つの共通ベンチマークで実施した実験により,本手法が最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-07-18T13:49:27Z) - Demystifying the Base and Novel Performances for Few-shot
Class-incremental Learning [15.762281194023462]
FSCIL(Few-shot class-incremental Learning)は、目に見えない新しいクラスがほとんどサンプルを持って絶えずやってくる現実のシナリオに対処している。
先行知識を忘れずに新しいクラスを認識するモデルを開発する必要がある。
本手法は,高度な最先端アルゴリズムと同等の性能を有することを示す。
論文 参考訳(メタデータ) (2022-06-18T00:39:47Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Few-Shot Object Detection via Association and DIscrimination [83.8472428718097]
AssociationとDIscriminationによるオブジェクト検出は、新しいクラスごとに2つのステップで識別可能な特徴空間を構築している。
Pascal VOCとMS-COCOデータセットの実験では、FADIは新しいSOTAパフォーマンスを実現し、ショット/スプリットのベースラインを+18.7で大幅に改善した。
論文 参考訳(メタデータ) (2021-11-23T05:04:06Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。