論文の概要: Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration
- arxiv url: http://arxiv.org/abs/2312.05229v1
- Date: Fri, 8 Dec 2023 18:24:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 14:12:18.445498
- Title: Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration
- Title(参考訳): 学習自由なプロトタイプ校正によるクラスインクリメンタルラーニング
- Authors: Qi-Wei Wang, Da-Wei Zhou, Yi-Kai Zhang, De-Chuan Zhan, Han-Jia Ye
- Abstract要約: 既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
- 参考スコア(独自算出の注目度): 67.69532794049445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world scenarios are usually accompanied by continuously appearing
classes with scare labeled samples, which require the machine learning model to
incrementally learn new classes and maintain the knowledge of base classes. In
this Few-Shot Class-Incremental Learning (FSCIL) scenario, existing methods
either introduce extra learnable components or rely on a frozen feature
extractor to mitigate catastrophic forgetting and overfitting problems.
However, we find a tendency for existing methods to misclassify the samples of
new classes into base classes, which leads to the poor performance of new
classes. In other words, the strong discriminability of base classes distracts
the classification of new classes. To figure out this intriguing phenomenon, we
observe that although the feature extractor is only trained on base classes, it
can surprisingly represent the semantic similarity between the base and unseen
new classes. Building upon these analyses, we propose a simple yet effective
Training-frEE calibratioN (TEEN) strategy to enhance the discriminability of
new classes by fusing the new prototypes (i.e., mean features of a class) with
weighted base prototypes. In addition to standard benchmarks in FSCIL, TEEN
demonstrates remarkable performance and consistent improvements over baseline
methods in the few-shot learning scenario. Code is available at:
https://github.com/wangkiw/TEEN
- Abstract(参考訳): 現実のシナリオは通常、ラベル付きサンプルで連続的に現れるクラスを伴い、機械学習モデルでは、新しいクラスを漸進的に学習し、ベースクラスの知識を維持する必要がある。
この少数ショットのclass-incremental learning (fscil)のシナリオでは、既存のメソッドは追加の学習可能なコンポーネントを導入するか、機能抽出器を凍結して、破滅的な放棄とオーバーフィットの問題を緩和している。
しかし、既存のメソッドが新しいクラスのサンプルをベースクラスに誤分類する傾向が見られ、それによって新しいクラスのパフォーマンスが低下する。
言い換えれば、基底クラスの強い識別性は、新しいクラスの分類を妨げている。
この興味深い現象を解明するために、特徴抽出器はベースクラスでのみ訓練されているが、ベースクラスと目に見えない新しいクラス間のセマンティックな類似性を驚くほど表すことができることを観察する。
これらの分析に基づいて,新しいプロトタイプ(すなわち,クラスの平均特徴)と重み付きベースプロトタイプを融合することにより,新しいクラスの識別性を高めるための,単純かつ効果的なトレーニングフリーキャリブレーション(ティーン)戦略を提案する。
FSCILの標準ベンチマークに加えて、TEENは、数ショットの学習シナリオにおけるベースラインメソッドよりも優れたパフォーマンスと一貫した改善を示している。
コードは、https://github.com/wangkiw/TEENで入手できる。
関連論文リスト
- Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - Expandable Subspace Ensemble for Pre-Trained Model-Based Class-Incremental Learning [65.57123249246358]
PTMベースのCILのためのExpAndable Subspace Ensemble (EASE)を提案する。
タスク固有のサブスペースを作成することを目的として、新しいタスクごとに異なる軽量アダプタモジュールをトレーニングする。
我々のプロトタイプ補完戦略は、古いクラスのインスタンスを使わずに、古いクラスの新機能を合成します。
論文 参考訳(メタデータ) (2024-03-18T17:58:13Z) - CBR - Boosting Adaptive Classification By Retrieval of Encrypted Network Traffic with Out-of-distribution [9.693391036125908]
一般的なアプローチの1つは、一定の数のクラスで機械学習またはディープラーニングベースのソリューションを使用することである。
未知のクラスを扱うソリューションの1つは、モデルを再トレーニングすることである。
本稿では,暗号ネットワークトラフィック分類の新しいアプローチであるRetrieval CBRによる適応分類を提案する。
論文 参考訳(メタデータ) (2024-03-17T13:14:09Z) - Harmonizing Base and Novel Classes: A Class-Contrastive Approach for
Generalized Few-Shot Segmentation [78.74340676536441]
本稿では,プロトタイプの更新を規制し,プロトタイプ間の距離を広くするために,クラス間のコントラスト損失とクラス関係損失を提案する。
提案手法は,PASCAL VOC および MS COCO データセット上での一般化された小ショットセグメンテーションタスクに対して,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-24T00:30:25Z) - Neural Collapse Inspired Feature-Classifier Alignment for Few-Shot Class
Incremental Learning [120.53458753007851]
FSCIL(Few-shot class-incremental Learning)は、新しいセッションにおいて、新しいクラスごとにいくつかのトレーニングサンプルしかアクセスできないため、難しい問題である。
我々は最近発見された神経崩壊現象にインスパイアされたFSCILのこの不整合ジレンマに対処する。
我々は、FSCILのための神経崩壊誘発フレームワークを提案する。MiniImageNet、CUB-200、CIFAR-100データセットの実験により、提案したフレームワークが最先端のパフォーマンスより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - Generalization Bounds for Few-Shot Transfer Learning with Pretrained
Classifiers [26.844410679685424]
本研究では,新しいクラスに移動可能な分類の表現を基礎モデルで学習する能力について検討する。
クラス-機能-変数の崩壊の場合,新しいクラスで学習した特徴マップのわずかな誤差が小さいことを示す。
論文 参考訳(メタデータ) (2022-12-23T18:46:05Z) - Class-incremental Novel Class Discovery [76.35226130521758]
クラス増進型新規クラス発見(class-iNCD)の課題について検討する。
基本クラスに関する過去の情報を忘れないようにする,クラスiNCDのための新しい手法を提案する。
3つの共通ベンチマークで実施した実験により,本手法が最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-07-18T13:49:27Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Class-Incremental Learning with Generative Classifiers [6.570917734205559]
本稿では,クラス増分学習のための新しい戦略を提案する。
本提案は,p(x|y)p(y) として分解された合同分布 p(x,y) を学習し,ベイズ則を用いた分類を行うことである。
ここでは,各学習クラスに対して,変分オートエンコーダをトレーニングすることで,この戦略を実証する。
論文 参考訳(メタデータ) (2021-04-20T16:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。