論文の概要: Adaptive Decision Boundary for Few-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2504.10976v2
- Date: Thu, 17 Apr 2025 04:50:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-25 12:11:13.418211
- Title: Adaptive Decision Boundary for Few-Shot Class-Incremental Learning
- Title(参考訳): Few-Shot Class-Incremental Learningのための適応的決定境界
- Authors: Linhao Li, Yongzhang Tan, Siyuan Yang, Hao Cheng, Yongfeng Dong, Liang Yang,
- Abstract要約: FSCIL(Few-Shot Class-Incremental Learning)は、学習済みの授業の知識を忘れずに、限られたトレーニングサンプルから新しいクラスを継続的に学習することを目的としている。
本稿では、ほとんどのFSCILメソッドと互換性のあるADBS(Adaptive Decision Boundary Strategy)を提案する。
具体的には、各クラスに特定の決定境界を割り当て、トレーニング中にこれらの境界を適応的に調整し、各セッションのクラスに対する決定空間を最適に洗練する。
- 参考スコア(独自算出の注目度): 13.451582196290866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-Shot Class-Incremental Learning (FSCIL) aims to continuously learn new classes from a limited set of training samples without forgetting knowledge of previously learned classes. Conventional FSCIL methods typically build a robust feature extractor during the base training session with abundant training samples and subsequently freeze this extractor, only fine-tuning the classifier in subsequent incremental phases. However, current strategies primarily focus on preventing catastrophic forgetting, considering only the relationship between novel and base classes, without paying attention to the specific decision spaces of each class. To address this challenge, we propose a plug-and-play Adaptive Decision Boundary Strategy (ADBS), which is compatible with most FSCIL methods. Specifically, we assign a specific decision boundary to each class and adaptively adjust these boundaries during training to optimally refine the decision spaces for the classes in each session. Furthermore, to amplify the distinctiveness between classes, we employ a novel inter-class constraint loss that optimizes the decision boundaries and prototypes for each class. Extensive experiments on three benchmarks, namely CIFAR100, miniImageNet, and CUB200, demonstrate that incorporating our ADBS method with existing FSCIL techniques significantly improves performance, achieving overall state-of-the-art results.
- Abstract(参考訳): FSCIL(Few-Shot Class-Incremental Learning)は、学習済みの授業の知識を忘れずに、限られたトレーニングサンプルから新しいクラスを継続的に学習することを目的としている。
従来のFSCIL法は、ベーストレーニングセッション中に豊富なトレーニングサンプルで堅牢な特徴抽出器を構築し、その後、この抽出器を凍結する。
しかし、現在の戦略は、各クラスの特定の決定空間に注意を払わずに、新規クラスと基本クラスの関係のみを考慮して、破滅的な忘れ込みを防ぐことに重点を置いている。
そこで本研究では,ほとんどのFSCIL手法と互換性のある適応決定境界戦略 (Adaptive Decision Boundary Strategy, ADBS) を提案する。
具体的には、各クラスに特定の決定境界を割り当て、トレーニング中にこれらの境界を適応的に調整し、各セッションのクラスに対する決定空間を最適に洗練する。
さらに,クラス間の差異を増幅するために,各クラスに対する決定境界とプロトタイプを最適化する,クラス間制約損失を新たに導入する。
CIFAR100, miniImageNet, CUB200という3つのベンチマークの大規模な実験では、既存のFSCIL技術にADBSメソッドを組み込むことで、パフォーマンスが大幅に向上し、全体的な成果が達成された。
関連論文リスト
- DUKAE: DUal-level Knowledge Accumulation and Ensemble for Pre-Trained Model-Based Continual Learning [19.684132921720945]
事前学習型モデルベース連続学習(PTMCL)は,新たな知識のより迅速な獲得を可能にするため,注目を集めている。
本稿では,機能レベルと意思決定レベルの知識蓄積を両立させるDual-level Knowledge Accumulation and Ensemble(DUKAE)を提案する。
CIFAR-100、ImageNet-R、CUB-200、Cars-196データセットの実験は、我々のアプローチの優れた性能を示している。
論文 参考訳(メタデータ) (2025-04-09T01:40:38Z) - Unbiased Max-Min Embedding Classification for Transductive Few-Shot Learning: Clustering and Classification Are All You Need [83.10178754323955]
わずかなショットラーニングにより、モデルがいくつかのラベル付き例から一般化できる。
本稿では,Unbiased Max-Min Embedding Classification (UMMEC)法を提案する。
本手法は最小ラベル付きデータを用いて分類性能を著しく向上させ, 注釈付きLの最先端化を推し進める。
論文 参考訳(メタデータ) (2025-03-28T07:23:07Z) - Strategic Base Representation Learning via Feature Augmentations for Few-Shot Class Incremental Learning [1.5269945475810085]
クラスインクリメンタルな学習は、学習済みのクラスの知識を少数のトレーニングインスタンスで保持しながら、新しいクラスを学習するモデルを意味する。
既存のフレームワークは通常、新しいクラスを組み込む際に、以前に学んだクラスのパラメータを凍結する。
本稿では,新しいクラスに対応するために,事前学習したクラスの分離を強化するために,機能拡張駆動型コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-16T08:17:32Z) - Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - SLCA++: Unleash the Power of Sequential Fine-tuning for Continual Learning with Pre-training [68.7896349660824]
本稿では,Seq FTのレンズからの進行オーバーフィッティング問題を詳細に解析する。
過度に高速な表現学習と偏りのある分類層がこの問題を構成することを考慮し、先進的なSlow Learner with Alignment(S++)フレームワークを導入する。
提案手法は,バックボーンパラメータの学習率を選択的に減少させるスローラーナーと,ポストホック方式で不規則な分類層を整列させるアライメントを含む。
論文 参考訳(メタデータ) (2024-08-15T17:50:07Z) - Mamba-FSCIL: Dynamic Adaptation with Selective State Space Model for Few-Shot Class-Incremental Learning [113.89327264634984]
FSCIL(Few-shot class-incremental Learning)は、最小限のトレーニングサンプルを持つモデルに新しいクラスを統合するという課題に直面している。
従来の手法では、固定パラメータ空間に依存する静的適応を広く採用し、逐次到着するデータから学習する。
本稿では、動的適応のための中間特徴に基づいてプロジェクションパラメータを動的に調整する2つの選択型SSMプロジェクタを提案する。
論文 参考訳(メタデータ) (2024-07-08T17:09:39Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - Harmonizing Base and Novel Classes: A Class-Contrastive Approach for
Generalized Few-Shot Segmentation [78.74340676536441]
本稿では,プロトタイプの更新を規制し,プロトタイプ間の距離を広くするために,クラス間のコントラスト損失とクラス関係損失を提案する。
提案手法は,PASCAL VOC および MS COCO データセット上での一般化された小ショットセグメンテーションタスクに対して,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-24T00:30:25Z) - Multimodal Parameter-Efficient Few-Shot Class Incremental Learning [1.9220716793379256]
FSCIL(Few-Shot Class Incremental Learning)は、いくつかの学習セッションで限られたトレーニング例が利用できる、挑戦的な継続的学習タスクである。
このタスクを成功させるためには、数発のトレーニングセットにおけるバイアス分布に起因する新しいクラスを過度に適合させるのを避ける必要がある。
CPE-CLIPは、最先端の提案と比較してFSCILの性能を著しく改善すると同時に、学習可能なパラメータの数やトレーニングコストを大幅に削減する。
論文 参考訳(メタデータ) (2023-03-08T17:34:15Z) - Margin-Based Few-Shot Class-Incremental Learning with Class-Level
Overfitting Mitigation [19.975435754433754]
FSCIL(Few-shot class-incremental Learning)は、少数のトレーニングサンプルで新規クラスを段階的に認識するように設計されている。
ベースクラスのトレーニングに対するよく知られた変更は、ベースクラスの分類にマージンを適用することである。
本研究では,CO 問題を軽減するために,利幅に基づく新たな FSCIL 法を提案する。
論文 参考訳(メタデータ) (2022-10-10T09:45:53Z) - MCDAL: Maximum Classifier Discrepancy for Active Learning [74.73133545019877]
近年の最先端のアクティブラーニング手法は, 主にGAN(Generative Adversarial Networks)をサンプル取得に活用している。
本稿では,MCDAL(Maximum Discrepancy for Active Learning)と呼ぶ新しいアクティブラーニングフレームワークを提案する。
特に,両者の差分を最大化することにより,より厳密な決定境界を学習する2つの補助的分類層を利用する。
論文 参考訳(メタデータ) (2021-07-23T06:57:08Z) - Fine-grained Angular Contrastive Learning with Coarse Labels [72.80126601230447]
教師付きおよび自己監督型コントラスト前訓練を効果的に組み合わせることができる新しい「Angularの正規化」モジュールを紹介します。
この研究は、C2FS分類のこの新しい、挑戦的で、非常に実用的なトピックに関する将来の研究の道を開くのに役立ちます。
論文 参考訳(メタデータ) (2020-12-07T08:09:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。