論文の概要: Does Prior Data Matter? Exploring Joint Training in the Context of Few-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2503.10003v2
- Date: Mon, 18 Aug 2025 13:19:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:09.856889
- Title: Does Prior Data Matter? Exploring Joint Training in the Context of Few-Shot Class-Incremental Learning
- Title(参考訳): 先行データ」は重要か? : 授業増分学習の文脈における共同学習をめざして
- Authors: Shiwon Kim, Dongjun Hwang, Sungwon Woo, Rita Singh,
- Abstract要約: CIL(Class-incremental Learning)は,学習前の知識を維持しつつ,新たなクラスに継続的に適応することを目的としている。
FSCIL(Few-shot class-incremental Learning)は、クラス毎に限られたサンプル数から新しいクラスを学習するモデルを必要とする、より大きな課題を示す。
- 参考スコア(独自算出の注目度): 9.682677147166391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class-incremental learning (CIL) aims to adapt to continuously emerging new classes while preserving knowledge of previously learned ones. Few-shot class-incremental learning (FSCIL) presents a greater challenge that requires the model to learn new classes from only a limited number of samples per class. While incremental learning typically assumes restricted access to past data, it often remains available in many real-world scenarios. This raises a practical question: should one retrain the model on the full dataset (i.e., joint training), or continue updating it solely with new data? In CIL, joint training is considered an ideal benchmark that provides a reference for evaluating the trade-offs between performance and computational cost. However, in FSCIL, joint training becomes less reliable due to severe imbalance between base and incremental classes. This results in the absence of a practical baseline, making it unclear which strategy is preferable for practitioners. To this end, we revisit joint training in the context of FSCIL by incorporating imbalance mitigation techniques, and suggest a new imbalance-aware joint training benchmark for FSCIL. We then conduct extensive comparisons between this benchmark and FSCIL methods to analyze which approach is most suitable when prior data is accessible. Our analysis offers realistic insights and guidance for selecting training strategies in real-world FSCIL scenarios. Code is available at: https://github.com/shiwonkim/Joint_FSCIL
- Abstract(参考訳): CIL(Class-incremental Learning)は,学習前の知識を維持しつつ,新たなクラスに継続的に適応することを目的としている。
FSCIL(Few-shot class-incremental Learning)は、クラス毎に限られたサンプル数から新しいクラスを学習するモデルを必要とする、より大きな課題を示す。
インクリメンタルラーニングは通常、過去のデータへのアクセス制限を前提としていますが、現実のシナリオでは引き続き利用できます。
完全なデータセット(例えば、共同トレーニング)でモデルを再トレーニングするか、あるいは新しいデータだけで更新を続けるべきか?
CILでは、ジョイントトレーニングは、パフォーマンスと計算コストのトレードオフを評価するための基準を提供する理想的なベンチマークとみなされる。
しかし、FSCILでは、ベースクラスとインクリメンタルクラスの間に深刻な不均衡があるため、ジョイントトレーニングの信頼性が低下する。
その結果,実践的基準が欠落し,実践者にとってどのような戦略が望ましいのかが不明となった。
そこで我々は,FSCILの非バランス緩和手法を取り入れて,FSCILの文脈における関節トレーニングを再検討し,新しい非バランス対応関節トレーニングベンチマークを提案する。
次に、このベンチマークとFSCILメソッドの広範な比較を行い、先行データにアクセス可能な場合、どのアプローチが最も適しているかを分析する。
我々の分析は実世界のFSCILシナリオにおけるトレーニング戦略を選択するための現実的な洞察とガイダンスを提供する。
コードは、https://github.com/shiwonkim/Joint_FSCILで入手できる。
関連論文リスト
- CLOSER: Towards Better Representation Learning for Few-Shot Class-Incremental Learning [52.63674911541416]
FSCIL(Few-shot class-incremental Learning)は、過剰適合や忘れなど、いくつかの課題に直面している。
FSCILの独特な課題に取り組むため、ベースクラスでの表現学習に重点を置いている。
より制限された機能空間内で機能の拡散を確保することで、学習された表現が、伝達可能性と識別可能性のバランスを良くすることが可能になることが分かりました。
論文 参考訳(メタデータ) (2024-10-08T02:23:16Z) - Few-shot Tuning of Foundation Models for Class-incremental Learning [19.165004570789755]
本稿では,新しいクラスの基礎モデルを数ショット設定で継続的にチューニングするための新しいアプローチを提案する。
CoACTは、ベンチマーク評価において現在のSOTAよりも13.5%改善されている。
論文 参考訳(メタデータ) (2024-05-26T16:41:03Z) - MetaCoCo: A New Few-Shot Classification Benchmark with Spurious Correlation [46.50551811108464]
実世界のシナリオから収集したスプリアス相関シフトを用いたベンチマークを提案する。
また,CLIPを事前学習した視覚言語モデルとして用いたメトリクスを提案する。
実験結果から,既存手法の性能はスプリアス相関シフトの有無で著しく低下することがわかった。
論文 参考訳(メタデータ) (2024-04-30T15:45:30Z) - Controllable Relation Disentanglement for Few-Shot Class-Incremental Learning [82.79371269942146]
本稿では,FewShot Class-Incremental Learning (FSCIL) を新たな視点,すなわち関係の絡み合いから扱うことを提案する。
急激な相関関係を切り離すことの課題は、FSCILの制御性が悪いことである。
我々は、CTRL-FSCIL(Controllable Relation-disentang FewShot Class-Incremental Learning)と呼ばれる、新しいシンプルな効果のある手法を提案する。
論文 参考訳(メタデータ) (2024-03-17T03:16:59Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Few-Shot Class-Incremental Learning with Prior Knowledge [94.95569068211195]
本稿では,事前学習モデルの一般化能力を高めるために,先行知識を用いた学習(LwPK)を提案する。
実験結果から,LwPKは破滅的忘れ込みに対するモデルレジリエンスを効果的に向上させることが示された。
論文 参考訳(メタデータ) (2024-02-02T08:05:35Z) - Bias Mitigating Few-Shot Class-Incremental Learning [17.185744533050116]
クラス増分学習は,限定された新規クラスサンプルを用いて,新規クラスを継続的に認識することを目的としている。
最近の手法では,段階的なセッションで特徴抽出器を微調整することにより,ベースクラスとインクリメンタルクラスの精度の不均衡を緩和している。
本研究では,FSCIL問題におけるモデルバイアスを緩和する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-01T10:37:41Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Margin-Based Few-Shot Class-Incremental Learning with Class-Level
Overfitting Mitigation [19.975435754433754]
FSCIL(Few-shot class-incremental Learning)は、少数のトレーニングサンプルで新規クラスを段階的に認識するように設計されている。
ベースクラスのトレーニングに対するよく知られた変更は、ベースクラスの分類にマージンを適用することである。
本研究では,CO 問題を軽減するために,利幅に基づく新たな FSCIL 法を提案する。
論文 参考訳(メタデータ) (2022-10-10T09:45:53Z) - You Only Need End-to-End Training for Long-Tailed Recognition [8.789819609485225]
クロスエントロピー損失は、不均衡なデータに非常に相関した特徴をもたらす傾向にある。
ブロックベース相対平衡バッチサンプリング(B3RS)とバッチ埋め込みトレーニング(BET)の2つの新しいモジュールを提案する。
CIFAR-LT と ImageNet-LT の長期分類ベンチマークによる実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-12-11T11:44:09Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。