論文の概要: Margin-Based Few-Shot Class-Incremental Learning with Class-Level
Overfitting Mitigation
- arxiv url: http://arxiv.org/abs/2210.04524v1
- Date: Mon, 10 Oct 2022 09:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 17:56:28.004451
- Title: Margin-Based Few-Shot Class-Incremental Learning with Class-Level
Overfitting Mitigation
- Title(参考訳): クラスレベルオーバーフィッティング緩和を用いたマージンベースマイトショットクラスインクリメンタルラーニング
- Authors: Yixiong Zou, Shanghang Zhang, Yuhua Li, Ruixuan Li
- Abstract要約: FSCIL(Few-shot class-incremental Learning)は、少数のトレーニングサンプルで新規クラスを段階的に認識するように設計されている。
ベースクラスのトレーニングに対するよく知られた変更は、ベースクラスの分類にマージンを適用することである。
本研究では,CO 問題を軽減するために,利幅に基づく新たな FSCIL 法を提案する。
- 参考スコア(独自算出の注目度): 19.975435754433754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot class-incremental learning (FSCIL) is designed to incrementally
recognize novel classes with only few training samples after the (pre-)training
on base classes with sufficient samples, which focuses on both base-class
performance and novel-class generalization. A well known modification to the
base-class training is to apply a margin to the base-class classification.
However, a dilemma exists that we can hardly achieve both good base-class
performance and novel-class generalization simultaneously by applying the
margin during the base-class training, which is still under explored. In this
paper, we study the cause of such dilemma for FSCIL. We first interpret this
dilemma as a class-level overfitting (CO) problem from the aspect of pattern
learning, and then find its cause lies in the easily-satisfied constraint of
learning margin-based patterns. Based on the analysis, we propose a novel
margin-based FSCIL method to mitigate the CO problem by providing the pattern
learning process with extra constraint from the margin-based patterns
themselves. Extensive experiments on CIFAR100, Caltech-USCD Birds-200-2011
(CUB200), and miniImageNet demonstrate that the proposed method effectively
mitigates the CO problem and achieves state-of-the-art performance.
- Abstract(参考訳): FSCIL (Few-shot class-incremental Learning) は, 基礎クラスでの(事前)訓練後, 基礎クラスのパフォーマンスと新規クラスの一般化の両方に焦点をあてた, 少数のトレーニングサンプルで新規クラスを段階的に認識するように設計されている。
ベースクラストレーニングのよく知られた変更は、ベースクラス分類にマージンを適用することである。
しかし、現在検討中のベースクラスのトレーニングにおいて、マージンを適用することで、優れたベースクラスのパフォーマンスと新規クラスの一般化の両方を同時に達成できないというジレンマが存在する。
本稿では,FSCILにおけるこのようなジレンマの原因について検討する。
我々はまず、このジレンマをパターン学習の側面からクラスレベルのオーバーフィッティング(CO)問題と解釈し、その原因は学習マージンに基づくパターンの制約が容易に満たされることにある。
そこで本研究では,マージンベースパターン自体から余分な制約を課したパターン学習プロセスを提供することにより,co問題の軽減を図る新しいマージンベースfscil法を提案する。
CIFAR100, Caltech-USCD Birds-200-2011 (CUB200) および miniImageNet の大規模実験により, 提案手法がCO問題を効果的に軽減し, 最先端の性能を実現することを示した。
関連論文リスト
- Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - Few-Shot Class-Incremental Learning with Prior Knowledge [94.95569068211195]
本稿では,事前学習モデルの一般化能力を高めるために,先行知識を用いた学習(LwPK)を提案する。
実験結果から,LwPKは破滅的忘れ込みに対するモデルレジリエンスを効果的に向上させることが示された。
論文 参考訳(メタデータ) (2024-02-02T08:05:35Z) - Bias Mitigating Few-Shot Class-Incremental Learning [17.185744533050116]
クラス増分学習は,限定された新規クラスサンプルを用いて,新規クラスを継続的に認識することを目的としている。
最近の手法では,段階的なセッションで特徴抽出器を微調整することにより,ベースクラスとインクリメンタルクラスの精度の不均衡を緩和している。
本研究では,FSCIL問題におけるモデルバイアスを緩和する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-01T10:37:41Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - SLCA: Slow Learner with Classifier Alignment for Continual Learning on a
Pre-trained Model [73.80068155830708]
予備学習モデル(CLPM)を用いた連続学習のための広範囲な解析法を提案する。
Slow Learner with Alignment (SLCA) というシンプルなアプローチを提案する。
さまざまなシナリオにおいて、私たちの提案はCLPMの大幅な改善を提供します。
論文 参考訳(メタデータ) (2023-03-09T08:57:01Z) - Fast Hierarchical Learning for Few-Shot Object Detection [57.024072600597464]
転送学習アプローチは、最近、数ショット検出タスクで有望な結果を得た。
これらのアプローチは、ベース検出器の微調整による破滅的な忘れ込みの問題に悩まされる。
この作業における上記の問題に対処する。
論文 参考訳(メタデータ) (2022-10-10T20:31:19Z) - Demystifying the Base and Novel Performances for Few-shot
Class-incremental Learning [15.762281194023462]
FSCIL(Few-shot class-incremental Learning)は、目に見えない新しいクラスがほとんどサンプルを持って絶えずやってくる現実のシナリオに対処している。
先行知識を忘れずに新しいクラスを認識するモデルを開発する必要がある。
本手法は,高度な最先端アルゴリズムと同等の性能を有することを示す。
論文 参考訳(メタデータ) (2022-06-18T00:39:47Z) - Incremental Few-Shot Learning via Implanting and Compressing [13.122771115838523]
増分的なFew-Shot Learningは、いくつかの例から新しいクラスを継続的に学習するモデルを必要とする。
我々はtextbfImplanting と textbfCompressing と呼ばれる2段階の学習戦略を提案する。
具体的には、textbfImplantingのステップにおいて、新しいクラスのデータ分布をデータ・アサンダント・ベース・セットの助けを借りて模倣することを提案する。
textbfのステップでは、特徴抽出器を各新規クラスを正確に表現し、クラス内コンパクト性を高める。
論文 参考訳(メタデータ) (2022-03-19T11:04:43Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。