論文の概要: MASIL: Towards Maximum Separable Class Representation for Few Shot Class
Incremental Learning
- arxiv url: http://arxiv.org/abs/2304.05362v1
- Date: Sat, 8 Apr 2023 13:31:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 13:57:52.050562
- Title: MASIL: Towards Maximum Separable Class Representation for Few Shot Class
Incremental Learning
- Title(参考訳): MASIL: クラスインクリメンタル学習のための最大分離型クラス表現を目指して
- Authors: Anant Khandelwal
- Abstract要約: FSCIL(Few Shot Class Incremental Learning)では,各段階的なセッションに対して,クラス毎の例が少ないことが,継続的な学習の現実的な設定である。
フレームワークMASILを最大分離型分類器の学習のためのステップとして提示する。
miniImageNet、CIFAR-100、CUB-200の実験結果は、MASILが全てのベンチマークより優れていることを示している。
- 参考スコア(独自算出の注目度): 27.661609140918916
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few Shot Class Incremental Learning (FSCIL) with few examples per class for
each incremental session is the realistic setting of continual learning since
obtaining large number of annotated samples is not feasible and cost effective.
We present the framework MASIL as a step towards learning the maximal separable
classifier. It addresses the common problem i.e forgetting of old classes and
over-fitting to novel classes by learning the classifier weights to be
maximally separable between classes forming a simplex Equiangular Tight Frame.
We propose the idea of concept factorization explaining the collapsed features
for base session classes in terms of concept basis and use these to induce
classifier simplex for few shot classes. We further adds fine tuning to reduce
any error occurred during factorization and train the classifier jointly on
base and novel classes without retaining any base class samples in memory.
Experimental results on miniImageNet, CIFAR-100 and CUB-200 demonstrate that
MASIL outperforms all the benchmarks.
- Abstract(参考訳): インクリメンタルセッション毎にクラス毎に例が少ないショットクラスインクリメンタル学習(fscil)は,大量の注釈付きサンプルの取得が実現不可能でコスト効率がよいため,継続的学習の現実的な設定である。
フレームワークMASILを最大分離型分類器の学習のためのステップとして提示する。
これは、クラス間で最大に分離可能な分類子重みを学習することで、古いクラスを忘れ、新しいクラスに過剰に適合する、という共通の問題に対処する。
本稿では, 基本セッションクラスにおける分解機能を説明する概念因子化の考え方を提案し, 少数のショットクラスに対する分類器の簡易化を誘導する。
さらに、ファシリゼーション中に発生したエラーを減らすための微調整を追加し、メモリにベースクラスサンプルを保持することなく、ベースクラスと新規クラスで共同で分類器を訓練する。
miniImageNet、CIFAR-100、CUB-200の実験結果は、MASILが全てのベンチマークより優れていることを示している。
関連論文リスト
- Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Few-shot Classification via Ensemble Learning with Multi-Order
Statistics [9.145742362513932]
基本クラスにおけるアンサンブル学習を活用することで,新たなクラスにおける真の誤りを低減できることを示す。
本稿では,多階統計を用いたアンサンブル学習法(ELMOS)を提案する。
提案手法は,複数ショットの分類ベンチマークデータセット上で,最先端の性能を実現することができることを示す。
論文 参考訳(メタデータ) (2023-04-30T11:41:01Z) - Neural Collapse Inspired Feature-Classifier Alignment for Few-Shot Class
Incremental Learning [120.53458753007851]
FSCIL(Few-shot class-incremental Learning)は、新しいセッションにおいて、新しいクラスごとにいくつかのトレーニングサンプルしかアクセスできないため、難しい問題である。
我々は最近発見された神経崩壊現象にインスパイアされたFSCILのこの不整合ジレンマに対処する。
我々は、FSCILのための神経崩壊誘発フレームワークを提案する。MiniImageNet、CUB-200、CIFAR-100データセットの実験により、提案したフレームワークが最先端のパフォーマンスより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - GMM-IL: Image Classification using Incrementally Learnt, Independent
Probabilistic Models for Small Sample Sizes [0.4511923587827301]
本稿では,視覚的特徴学習と確率モデルを組み合わせた2段階アーキテクチャを提案する。
我々は、ソフトマックスヘッドを用いた等価ネットワークのベンチマークを上回り、サンプルサイズが12以下の場合の精度が向上し、3つの不均衡なクラスプロファイルに対する重み付きF1スコアが向上した。
論文 参考訳(メタデータ) (2022-12-01T15:19:42Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Mimicking the Oracle: An Initial Phase Decorrelation Approach for Class Incremental Learning [141.35105358670316]
本研究では,Na"訓練初期相モデルとオラクルモデルとの相違について検討する。
より均一に散らばるように,各クラスの表現を効果的に正規化するクラスワイド・デコレーション(CwD)を提案する。
私たちのCwDは実装が簡単で、既存のメソッドに簡単にプラグインできます。
論文 参考訳(メタデータ) (2021-12-09T07:20:32Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。