論文の概要: Sculpting Margin Penalty: Intra-Task Adapter Merging and Classifier Calibration for Few-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2508.05094v1
- Date: Thu, 07 Aug 2025 07:26:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 21:11:55.664182
- Title: Sculpting Margin Penalty: Intra-Task Adapter Merging and Classifier Calibration for Few-Shot Class-Incremental Learning
- Title(参考訳): 対訳 マージン ペナルティ:Few-Shot Class-Incremental Learning におけるタスク・アダプタ・マージと分類器の校正
- Authors: Liang Bai, Hong Song, Jinfu Li, Yucong Lin, Jingfan Fan, Tianyu Fu, Danni Ai, Deqiang Xiao, Jian Yang,
- Abstract要約: フォワード互換学習はFSCIL(Few-Shot Class-Incremental Learning)にとって有望なソリューションである
SMP(Sculpting Margin Penalty)は,パラメータ効率のよい微調整パラダイムにおいて,異なる段階における利幅のペナルティを戦略的に統合する新しいFSCIL法である。
そこで本研究では,SMPがFSCILの最先端性能を実現しつつ,ベースクラスと新しいクラスとのバランスを良く保っていることを示す。
- 参考スコア(独自算出の注目度): 20.574528816984955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world applications often face data privacy constraints and high acquisition costs, making the assumption of sufficient training data in incremental tasks unrealistic and leading to significant performance degradation in class-incremental learning. Forward-compatible learning, which prospectively prepares for future tasks during base task training, has emerged as a promising solution for Few-Shot Class-Incremental Learning (FSCIL). However, existing methods still struggle to balance base-class discriminability and new-class generalization. Moreover, limited access to original data during incremental tasks often results in ambiguous inter-class decision boundaries. To address these challenges, we propose SMP (Sculpting Margin Penalty), a novel FSCIL method that strategically integrates margin penalties at different stages within the parameter-efficient fine-tuning paradigm. Specifically, we introduce the Margin-aware Intra-task Adapter Merging (MIAM) mechanism for base task learning. MIAM trains two sets of low-rank adapters with distinct classification losses: one with a margin penalty to enhance base-class discriminability, and the other without margin constraints to promote generalization to future new classes. These adapters are then adaptively merged to improve forward compatibility. For incremental tasks, we propose a Margin Penalty-based Classifier Calibration (MPCC) strategy to refine decision boundaries by fine-tuning classifiers on all seen classes' embeddings with a margin penalty. Extensive experiments on CIFAR100, ImageNet-R, and CUB200 demonstrate that SMP achieves state-of-the-art performance in FSCIL while maintaining a better balance between base and new classes.
- Abstract(参考訳): 実世界のアプリケーションは、データプライバシの制約と高い取得コストに直面することが多く、インクリメンタルなタスクにおける十分なトレーニングデータの仮定は非現実的であり、クラスインクリメンタルな学習における大幅なパフォーマンス低下につながります。
FSCIL(Few-Shot Class-Incremental Learning, FSCIL)は,Few-Shot Class-Incremental Learning(FSCIL)のための将来的なソリューションとして登場した。
しかし、既存の手法は相変わらず、基礎階級の差別性と新しい階級の一般化のバランスを取るのに苦労している。
さらに、インクリメンタルなタスク中に元のデータに制限されたアクセスは、しばしばクラス間の決定境界が曖昧になる。
これらの課題に対処するために,パラメータ効率のよい微調整パラダイムにおいて,異なる段階における利得ペナルティを戦略的に統合する新しいFSCIL法であるSMP(Sculpting Margin Penalty)を提案する。
具体的には,タスク学習のためのマルチタスク内適応マージ(MIAM)機構を提案する。
MIAMは2組の低ランクアダプタを訓練し、それぞれ異なる分類の損失を被った。
これらのアダプタは、前方互換性を改善するために適応的にマージされる。
漸進的なタスクに対して, マージン・ペナルティに基づく分類器校正(MPCC)戦略を提案する。
CIFAR100、ImageNet-R、CUB200の大規模な実験により、SMPはFSCILにおける最先端のパフォーマンスを達成し、ベースクラスと新しいクラスのバランスを良く保っていることが示された。
関連論文リスト
- Balancing the Past and Present: A Coordinated Replay Framework for Federated Class-Incremental Learning [16.892037777885218]
FCIL(Federated Class Incremental Learning)のためのクラスワイドバランスデータ再生手法を提案する。
1)グローバル・パースペクティブ・データ・リプレイ・モジュールは,事前タスクのグローバルな表現をプライバシ保護方式で再構築し,その上で,クラス認識と重要度に敏感なサンプリング戦略を指導し,バランスの取れたリプレイを実現する。2)タスク間のクラス不均衡を処理するために,タスク対応温度スケーリングモジュールは,タスクダイナミクスに基づくクラスとインスタンスレベルのロジットの温度を適応的に調整し,多数クラスに対するモデルの過度さを低減し,マイノリティクラスへの感受性を高める。
論文 参考訳(メタデータ) (2025-07-10T12:46:31Z) - Unbiased Max-Min Embedding Classification for Transductive Few-Shot Learning: Clustering and Classification Are All You Need [83.10178754323955]
わずかなショットラーニングにより、モデルがいくつかのラベル付き例から一般化できる。
本稿では,Unbiased Max-Min Embedding Classification (UMMEC)法を提案する。
本手法は最小ラベル付きデータを用いて分類性能を著しく向上させ, 注釈付きLの最先端化を推し進める。
論文 参考訳(メタデータ) (2025-03-28T07:23:07Z) - SLCA++: Unleash the Power of Sequential Fine-tuning for Continual Learning with Pre-training [68.7896349660824]
本稿では,Seq FTのレンズからの進行オーバーフィッティング問題を詳細に解析する。
過度に高速な表現学習と偏りのある分類層がこの問題を構成することを考慮し、先進的なSlow Learner with Alignment(S++)フレームワークを導入する。
提案手法は,バックボーンパラメータの学習率を選択的に減少させるスローラーナーと,ポストホック方式で不規則な分類層を整列させるアライメントを含む。
論文 参考訳(メタデータ) (2024-08-15T17:50:07Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Generalized Inter-class Loss for Gait Recognition [11.15855312510806]
歩行認識は、遠隔操作で非協調的に行うことのできるユニークな生体計測技術である。
それまでの歩行作業は、クラス間の分散を制限することの重要性を無視しながら、クラス内の分散を最小化することに焦点を当てていた。
サンプルレベルの特徴分布とクラスレベルの特徴分布の両方からクラス間の分散を解消する一般化されたクラス間損失を提案する。
論文 参考訳(メタデータ) (2022-10-13T06:44:53Z) - Margin-Based Few-Shot Class-Incremental Learning with Class-Level
Overfitting Mitigation [19.975435754433754]
FSCIL(Few-shot class-incremental Learning)は、少数のトレーニングサンプルで新規クラスを段階的に認識するように設計されている。
ベースクラスのトレーニングに対するよく知られた変更は、ベースクラスの分類にマージンを適用することである。
本研究では,CO 問題を軽減するために,利幅に基づく新たな FSCIL 法を提案する。
論文 参考訳(メタデータ) (2022-10-10T09:45:53Z) - Contextual Squeeze-and-Excitation for Efficient Few-Shot Image
Classification [57.36281142038042]
本稿では,事前学習したニューラルネットワークを新しいタスクで調整し,性能を大幅に向上させる,Contextual Squeeze-and-Excitation (CaSE) という適応ブロックを提案する。
また、メタトレーニングされたCaSEブロックと微調整ルーチンを利用して効率よく適応する、アッパーCaSEと呼ばれるコーディネートダイスに基づく新しいトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2022-06-20T15:25:08Z) - Learning Imbalanced Datasets with Maximum Margin Loss [21.305656747991026]
クラス不均衡データ学習問題を考慮した学習アルゴリズムとして,最大マージン(MM)を提案する。
我々は、シフトする決定境界を通して有界なマージン一般化を最小化することで、新しい最大マージン損失関数を設計する。
論文 参考訳(メタデータ) (2022-06-11T00:21:41Z) - Boosting Discriminative Visual Representation Learning with
Scenario-Agnostic Mixup [54.09898347820941]
自己教師付き学習(SSL)と教師付き学習(SL)の両方のシナリオに対して,textbfScenario-textbfAgnostic textbfMixup (SAMix)を提案する。
具体的には、2つの混合クラス間の局所的な滑らかさを最適化するために、混合生成の目的関数を仮説化し、検証する。
非自明な混合サンプルを効果的に提供し、転送可能な能力を向上させるラベルフリーな生成サブネットワークを設計する。
論文 参考訳(メタデータ) (2021-11-30T14:49:59Z) - Boosting Few-Shot Learning With Adaptive Margin Loss [109.03665126222619]
本稿では,数ショット学習問題に対するメートル法に基づくメタラーニング手法の一般化能力を改善するための適応的マージン原理を提案する。
大規模な実験により,提案手法は,現在のメートル法に基づくメタラーニング手法の性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2020-05-28T07:58:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。