論文の概要: A New Benchmark for Few-Shot Class-Incremental Learning: Redefining the Upper Bound
- arxiv url: http://arxiv.org/abs/2503.10003v1
- Date: Thu, 13 Mar 2025 03:25:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 21:36:22.508073
- Title: A New Benchmark for Few-Shot Class-Incremental Learning: Redefining the Upper Bound
- Title(参考訳): Few-Shot Class-Incremental Learningのための新しいベンチマーク:上界の再定義
- Authors: Shiwon Kim, Dongjun Hwang, Sungwon Woo, Rita Singh,
- Abstract要約: CIL(Class-incremental Learning)は、先進的なクラスに継続的に適応し、学習したクラスの知識を維持することを目的としている。
FSCIL(Few-shot class-incremental Learning)は,サンプル数限定で段階的なクラスを学習するモデルを必要とする,さらに大きな課題を提示している。
我々は,不均衡認識技術を統合することで,FSCILに適した新しいジョイントトレーニングベンチマークを導入する。
- 参考スコア(独自算出の注目度): 9.682677147166391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class-incremental learning (CIL) aims to continuously adapt to emerging classes while retaining knowledge of previously learned ones. Few-shot class-incremental learning (FSCIL) presents an even greater challenge which requires the model to learn incremental classes with only a limited number of samples. In conventional CIL, joint training is widely considered the upper bound, serving as both a benchmark and a methodological guide. However, we find that joint training fails to be a meaningful upper bound in FSCIL due to the inherent difficulty of inter-task class separation (ICS) caused by severe class imbalance. In this work, we introduce a new joint training benchmark tailored for FSCIL by integrating imbalance-aware techniques, effectively bridging the performance gap between base and incremental classes. Furthermore, we point out inconsistencies in the experimental setup and evaluation of existing FSCIL methods. To ensure fair comparisons between different FSCIL approaches and joint training, we standardize training conditions and propose a unified evaluation protocol that simultaneously considers the validation set and computational complexity. By establishing a reliable upper bound and a standardized evaluation framework for FSCIL, our work provides a clear benchmark and a practical foundation for future research.
- Abstract(参考訳): CIL(Class-incremental Learning)は、先進的なクラスに継続的に適応し、学習したクラスの知識を維持することを目的としている。
FSCIL(Few-shot class-incremental Learning)は,サンプル数限定で段階的なクラスを学習するモデルを必要とする,さらに大きな課題を提示している。
従来のCILでは、ジョイントトレーニングは、ベンチマークと方法論ガイドの両方として機能する上界として広く考えられている。
しかし,重度のクラス不均衡に起因するタスク間クラス分離(ICS)の難しさから,共同トレーニングはFSCILの有意義な上限にはならないことが判明した。
本研究では,FSCILに適合する新しい共同トレーニングベンチマークを導入し,不均衡を意識した手法を取り入れ,ベースクラスとインクリメンタルクラスのパフォーマンスギャップを効果的に埋める手法を提案する。
さらに,既存のFSCIL手法の実験的な設定と評価に矛盾があることを指摘する。
異なるFSCILアプローチと共同トレーニングの公正な比較を確保するため,トレーニング条件を標準化し,検証セットと計算複雑性を同時に考慮した統一評価プロトコルを提案する。
FSCILの信頼性の高い上限と標準化された評価フレームワークを確立することで、我々の研究は明確なベンチマークと将来の研究のための実践的な基盤を提供する。
関連論文リスト
- SPaRFT: Self-Paced Reinforcement Fine-Tuning for Large Language Models [51.74498855100541]
大規模言語モデル(LLM)は、強化学習(RL)による微調整時に強い推論能力を示す。
トレーニング対象のモデルの性能に基づいて,効率的な学習を可能にする自己評価学習フレームワークである textbfSPaRFT を提案する。
論文 参考訳(メタデータ) (2025-08-07T03:50:48Z) - CALA: A Class-Aware Logit Adapter for Few-Shot Class-Incremental Learning [9.963958892953876]
疑似増分学習パラダイムを用いてバイアス予測の正当性を学習する軽量なアダプタを提案する。
提案手法は,疑似増分学習パラダイムを用いてバイアス予測の正当性を学習する軽量アダプタを含む。
論文 参考訳(メタデータ) (2024-12-17T08:21:46Z) - Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - CLOSER: Towards Better Representation Learning for Few-Shot Class-Incremental Learning [52.63674911541416]
FSCIL(Few-shot class-incremental Learning)は、過剰適合や忘れなど、いくつかの課題に直面している。
FSCILの独特な課題に取り組むため、ベースクラスでの表現学習に重点を置いている。
より制限された機能空間内で機能の拡散を確保することで、学習された表現が、伝達可能性と識別可能性のバランスを良くすることが可能になることが分かりました。
論文 参考訳(メタデータ) (2024-10-08T02:23:16Z) - Few-shot Tuning of Foundation Models for Class-incremental Learning [19.165004570789755]
本稿では,新しいクラスの基礎モデルを数ショット設定で継続的にチューニングするための新しいアプローチを提案する。
CoACTは、ベンチマーク評価において現在のSOTAよりも13.5%改善されている。
論文 参考訳(メタデータ) (2024-05-26T16:41:03Z) - MetaCoCo: A New Few-Shot Classification Benchmark with Spurious Correlation [46.50551811108464]
実世界のシナリオから収集したスプリアス相関シフトを用いたベンチマークを提案する。
また,CLIPを事前学習した視覚言語モデルとして用いたメトリクスを提案する。
実験結果から,既存手法の性能はスプリアス相関シフトの有無で著しく低下することがわかった。
論文 参考訳(メタデータ) (2024-04-30T15:45:30Z) - F-OAL: Forward-only Online Analytic Learning with Fast Training and Low Memory Footprint in Class Incremental Learning [28.772554281694166]
Online Class Incremental Learning (OCIL)は、ミニバッチにデータが到着し、以前のデータがアクセスできないようなモデルを段階的にトレーニングすることを目的としている。
OCILにおける大きな課題は、カタストロフィック・フォージッティング(Caastrophic Forgetting)、すなわち、以前に学んだ知識の喪失である。
本稿では,前向きのみのオンライン分析学習(F-OAL)を提案する。
従来の方法とは異なり、F-OALはバックプロパゲーションに依存しておらず、フォワードのみであり、メモリ使用量と計算時間を著しく削減している。
論文 参考訳(メタデータ) (2024-03-23T07:39:13Z) - Controllable Relation Disentanglement for Few-Shot Class-Incremental Learning [82.79371269942146]
本稿では,FewShot Class-Incremental Learning (FSCIL) を新たな視点,すなわち関係の絡み合いから扱うことを提案する。
急激な相関関係を切り離すことの課題は、FSCILの制御性が悪いことである。
我々は、CTRL-FSCIL(Controllable Relation-disentang FewShot Class-Incremental Learning)と呼ばれる、新しいシンプルな効果のある手法を提案する。
論文 参考訳(メタデータ) (2024-03-17T03:16:59Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Few-Shot Class-Incremental Learning with Prior Knowledge [94.95569068211195]
本稿では,事前学習モデルの一般化能力を高めるために,先行知識を用いた学習(LwPK)を提案する。
実験結果から,LwPKは破滅的忘れ込みに対するモデルレジリエンスを効果的に向上させることが示された。
論文 参考訳(メタデータ) (2024-02-02T08:05:35Z) - Bias Mitigating Few-Shot Class-Incremental Learning [17.185744533050116]
クラス増分学習は,限定された新規クラスサンプルを用いて,新規クラスを継続的に認識することを目的としている。
最近の手法では,段階的なセッションで特徴抽出器を微調整することにより,ベースクラスとインクリメンタルクラスの精度の不均衡を緩和している。
本研究では,FSCIL問題におけるモデルバイアスを緩和する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-01T10:37:41Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for Incremental Learning [93.90047628101155]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
これを解決するために、新しいタスク学習中に過去のタスクからのデータを再生する手法を提案する。
しかし、メモリの制約やデータプライバシーの問題により、実際には期待できない。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Architecture, Dataset and Model-Scale Agnostic Data-free Meta-Learning [117.48444197402858]
データフリーメタトレーニングにおけるePisode cUrriculum inversion(ECI)と、内部ループ後のinvErsion calibRation(ICFIL)を提案する。
ECIは、メタモデルのリアルタイムフィードバックに応じて、擬似エピソードの難易度を適応的に増加させる。
本稿では,ECIを用いたメタトレーニングの最適化過程を,エンド・ツー・エンド方式で近似形式として定式化する。
論文 参考訳(メタデータ) (2023-03-20T15:10:41Z) - Margin-Based Few-Shot Class-Incremental Learning with Class-Level
Overfitting Mitigation [19.975435754433754]
FSCIL(Few-shot class-incremental Learning)は、少数のトレーニングサンプルで新規クラスを段階的に認識するように設計されている。
ベースクラスのトレーニングに対するよく知られた変更は、ベースクラスの分類にマージンを適用することである。
本研究では,CO 問題を軽減するために,利幅に基づく新たな FSCIL 法を提案する。
論文 参考訳(メタデータ) (2022-10-10T09:45:53Z) - You Only Need End-to-End Training for Long-Tailed Recognition [8.789819609485225]
クロスエントロピー損失は、不均衡なデータに非常に相関した特徴をもたらす傾向にある。
ブロックベース相対平衡バッチサンプリング(B3RS)とバッチ埋め込みトレーニング(BET)の2つの新しいモジュールを提案する。
CIFAR-LT と ImageNet-LT の長期分類ベンチマークによる実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-12-11T11:44:09Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。