論文の概要: A New Benchmark for Few-Shot Class-Incremental Learning: Redefining the Upper Bound
- arxiv url: http://arxiv.org/abs/2503.10003v1
- Date: Thu, 13 Mar 2025 03:25:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:54:29.794254
- Title: A New Benchmark for Few-Shot Class-Incremental Learning: Redefining the Upper Bound
- Title(参考訳): Few-Shot Class-Incremental Learningのための新しいベンチマーク:上界の再定義
- Authors: Shiwon Kim, Dongjun Hwang, Sungwon Woo, Rita Singh,
- Abstract要約: CIL(Class-incremental Learning)は、先進的なクラスに継続的に適応し、学習したクラスの知識を維持することを目的としている。
FSCIL(Few-shot class-incremental Learning)は,サンプル数限定で段階的なクラスを学習するモデルを必要とする,さらに大きな課題を提示している。
我々は,不均衡認識技術を統合することで,FSCILに適した新しいジョイントトレーニングベンチマークを導入する。
- 参考スコア(独自算出の注目度): 9.682677147166391
- License:
- Abstract: Class-incremental learning (CIL) aims to continuously adapt to emerging classes while retaining knowledge of previously learned ones. Few-shot class-incremental learning (FSCIL) presents an even greater challenge which requires the model to learn incremental classes with only a limited number of samples. In conventional CIL, joint training is widely considered the upper bound, serving as both a benchmark and a methodological guide. However, we find that joint training fails to be a meaningful upper bound in FSCIL due to the inherent difficulty of inter-task class separation (ICS) caused by severe class imbalance. In this work, we introduce a new joint training benchmark tailored for FSCIL by integrating imbalance-aware techniques, effectively bridging the performance gap between base and incremental classes. Furthermore, we point out inconsistencies in the experimental setup and evaluation of existing FSCIL methods. To ensure fair comparisons between different FSCIL approaches and joint training, we standardize training conditions and propose a unified evaluation protocol that simultaneously considers the validation set and computational complexity. By establishing a reliable upper bound and a standardized evaluation framework for FSCIL, our work provides a clear benchmark and a practical foundation for future research.
- Abstract(参考訳): CIL(Class-incremental Learning)は、先進的なクラスに継続的に適応し、学習したクラスの知識を維持することを目的としている。
FSCIL(Few-shot class-incremental Learning)は,サンプル数限定で段階的なクラスを学習するモデルを必要とする,さらに大きな課題を提示している。
従来のCILでは、ジョイントトレーニングは、ベンチマークと方法論ガイドの両方として機能する上界として広く考えられている。
しかし,重度のクラス不均衡に起因するタスク間クラス分離(ICS)の難しさから,共同トレーニングはFSCILの有意義な上限にはならないことが判明した。
本研究では,FSCILに適合する新しい共同トレーニングベンチマークを導入し,不均衡を意識した手法を取り入れ,ベースクラスとインクリメンタルクラスのパフォーマンスギャップを効果的に埋める手法を提案する。
さらに,既存のFSCIL手法の実験的な設定と評価に矛盾があることを指摘する。
異なるFSCILアプローチと共同トレーニングの公正な比較を確保するため,トレーニング条件を標準化し,検証セットと計算複雑性を同時に考慮した統一評価プロトコルを提案する。
FSCILの信頼性の高い上限と標準化された評価フレームワークを確立することで、我々の研究は明確なベンチマークと将来の研究のための実践的な基盤を提供する。
関連論文リスト
- TSVD: Bridging Theory and Practice in Continual Learning with Pre-trained Models [103.45785408116146]
連続学習(CL)は、連続的に提示される複数のタスクを解決できるモデルを訓練することを目的としている。
最近のCLアプローチは、ダウンストリームタスクをうまく一般化する大規模な事前学習モデルを活用することで、強力なパフォーマンスを実現している。
しかし、これらの手法には理論的保証がなく、予期せぬ失敗をしがちである。
理論的に健全で高性能な単純なCL法を設計することで,このギャップを埋めることを目指している。
論文 参考訳(メタデータ) (2024-10-01T12:58:37Z) - Few-shot Tuning of Foundation Models for Class-incremental Learning [19.165004570789755]
本稿では,新しいクラスの基礎モデルを数ショット設定で継続的にチューニングするための新しいアプローチを提案する。
CoACTは、ベンチマーク評価において現在のSOTAよりも13.5%改善されている。
論文 参考訳(メタデータ) (2024-05-26T16:41:03Z) - Controllable Relation Disentanglement for Few-Shot Class-Incremental Learning [82.79371269942146]
本稿では,FewShot Class-Incremental Learning (FSCIL) を新たな視点,すなわち関係の絡み合いから扱うことを提案する。
急激な相関関係を切り離すことの課題は、FSCILの制御性が悪いことである。
我々は、CTRL-FSCIL(Controllable Relation-disentang FewShot Class-Incremental Learning)と呼ばれる、新しいシンプルな効果のある手法を提案する。
論文 参考訳(メタデータ) (2024-03-17T03:16:59Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Few-Shot Class-Incremental Learning with Prior Knowledge [94.95569068211195]
本稿では,事前学習モデルの一般化能力を高めるために,先行知識を用いた学習(LwPK)を提案する。
実験結果から,LwPKは破滅的忘れ込みに対するモデルレジリエンスを効果的に向上させることが示された。
論文 参考訳(メタデータ) (2024-02-02T08:05:35Z) - Bias Mitigating Few-Shot Class-Incremental Learning [17.185744533050116]
クラス増分学習は,限定された新規クラスサンプルを用いて,新規クラスを継続的に認識することを目的としている。
最近の手法では,段階的なセッションで特徴抽出器を微調整することにより,ベースクラスとインクリメンタルクラスの精度の不均衡を緩和している。
本研究では,FSCIL問題におけるモデルバイアスを緩和する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-01T10:37:41Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Margin-Based Few-Shot Class-Incremental Learning with Class-Level
Overfitting Mitigation [19.975435754433754]
FSCIL(Few-shot class-incremental Learning)は、少数のトレーニングサンプルで新規クラスを段階的に認識するように設計されている。
ベースクラスのトレーニングに対するよく知られた変更は、ベースクラスの分類にマージンを適用することである。
本研究では,CO 問題を軽減するために,利幅に基づく新たな FSCIL 法を提案する。
論文 参考訳(メタデータ) (2022-10-10T09:45:53Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。