論文の概要: S3C: Self-Supervised Stochastic Classifiers for Few-Shot
Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2307.02246v1
- Date: Wed, 5 Jul 2023 12:41:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 13:57:21.156369
- Title: S3C: Self-Supervised Stochastic Classifiers for Few-Shot
Class-Incremental Learning
- Title(参考訳): s3c: クラスインクリメンタル学習のための自己教師付き確率分類器
- Authors: Jayateja Kalla and Soma Biswas
- Abstract要約: FSCIL(Few-shot class-incremental Learning)は、既に学習済みのクラスについての知識を忘れずに、ラベル付きサンプルがほとんどない新しいクラスについて徐々に学習することを目的としている。
FSCILには2つの大きな課題がある: (i) 限られたデータ量のために新しいクラスに過度に適合すること、 (ii) 段階的にこれらのクラスからのデータが利用できないために古いクラスを破滅的に忘れること。
- 参考スコア(独自算出の注目度): 22.243176199188238
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot class-incremental learning (FSCIL) aims to learn progressively about
new classes with very few labeled samples, without forgetting the knowledge of
already learnt classes. FSCIL suffers from two major challenges: (i)
over-fitting on the new classes due to limited amount of data, (ii)
catastrophically forgetting about the old classes due to unavailability of data
from these classes in the incremental stages. In this work, we propose a
self-supervised stochastic classifier (S3C) to counter both these challenges in
FSCIL. The stochasticity of the classifier weights (or class prototypes) not
only mitigates the adverse effect of absence of large number of samples of the
new classes, but also the absence of samples from previously learnt classes
during the incremental steps. This is complemented by the self-supervision
component, which helps to learn features from the base classes which generalize
well to unseen classes that are encountered in future, thus reducing
catastrophic forgetting. Extensive evaluation on three benchmark datasets using
multiple evaluation metrics show the effectiveness of the proposed framework.
We also experiment on two additional realistic scenarios of FSCIL, namely where
the number of annotated data available for each of the new classes can be
different, and also where the number of base classes is much lesser, and show
that the proposed S3C performs significantly better than the state-of-the-art
for all these challenging scenarios.
- Abstract(参考訳): FSCIL(Few-shot class-incremental Learning)は、既に学習済みのクラスについての知識を忘れずに、ラベル付きサンプルがほとんどない新しいクラスについて徐々に学習することを目的としている。
FSCILは2つの大きな課題に悩まされている。
(i)データ量が限られているため、新しいクラスに過度に適合する。
(II) 段階的にこれらのクラスからのデータが利用できないため、古いクラスを破滅的に忘れてしまう。
本研究では,これらの課題に対処する自己教師型確率分類器(S3C)を提案する。
分類器重み(またはクラスプロトタイプ)の確率性は、新しいクラスの多数のサンプルが存在しないことの悪影響を緩和するだけでなく、インクリメンタルステップ中に学習したクラスからのサンプルの欠如を緩和する。
これはself-supervisionコンポーネントによって補完される。これは、将来遭遇する未発見のクラスにうまく一般化し、破滅的な忘れることを減らすベースクラスから機能を学ぶのに役立つ。
複数の評価指標を用いた3つのベンチマークデータセットの大規模な評価は,提案フレームワークの有効性を示す。
また、新たなクラス毎に利用可能なアノテーション付きデータの数が異なる場合や、ベースクラスの数がはるかに少ない場合など、FSCILのさらに2つの現実的なシナリオを実験し、提案したS3Cがこれらの難解なシナリオすべてに対して、最先端よりもはるかに優れていることを示す。
関連論文リスト
- Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - Class-Imbalanced Complementary-Label Learning via Weighted Loss [8.934943507699131]
補完ラベル学習(Complementary-label Learning, CLL)は、弱い教師付き分類において広く用いられている。
クラス不均衡のトレーニングサンプルに直面すると、現実世界のデータセットでは大きな課題に直面します。
多クラス分類のためのクラス不均衡補完ラベルからの学習を可能にする新しい問題設定を提案する。
論文 参考訳(メタデータ) (2022-09-28T16:02:42Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Generalized and Incremental Few-Shot Learning by Explicit Learning and
Calibration without Forgetting [86.56447683502951]
これらの課題を明確かつ効果的に解決できる3段階のフレームワークを提案する。
提案手法を,画像とビデオの断片分類のための4つの挑戦的ベンチマークデータセット上で評価した。
論文 参考訳(メタデータ) (2021-08-18T14:21:43Z) - Entropy-Based Uncertainty Calibration for Generalized Zero-Shot Learning [49.04790688256481]
一般化ゼロショット学習(GZSL)の目的は、目に見えないクラスと見えないクラスの両方を認識することである。
ほとんどのGZSLメソッドは、通常、見えないクラスの意味情報から視覚表現を合成することを学ぶ。
本論文では,三重項損失を持つ2重変分オートエンコーダを利用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-09T05:21:27Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。