論文の概要: Learn by Reasoning: Analogical Weight Generation for Few-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2503.21258v1
- Date: Thu, 27 Mar 2025 08:31:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:54:22.707603
- Title: Learn by Reasoning: Analogical Weight Generation for Few-Shot Class-Incremental Learning
- Title(参考訳): 推論による学習:数ショットクラスインクリメンタルラーニングのための分析重み生成
- Authors: Jizhou Han, Chenhao Ding, Yuhang He, Songlin Dong, Qiang Wang, Xinyuan Gao, Yihong Gong,
- Abstract要約: FSCIL(Few-shot class-incremental Learning)では、限られたデータから新しいクラスを学ぶことができる。
従来のFSCILメソッドは、新しいクラスデータに制限のある微調整パラメータを必要とすることが多い。
ヒト脳の類推学習機構に着想を得て,新しい類推生成法を提案する。
- 参考スコア(独自算出の注目度): 19.890629892640206
- License:
- Abstract: Few-shot class-incremental Learning (FSCIL) enables models to learn new classes from limited data while retaining performance on previously learned classes. Traditional FSCIL methods often require fine-tuning parameters with limited new class data and suffer from a separation between learning new classes and utilizing old knowledge. Inspired by the analogical learning mechanisms of the human brain, we propose a novel analogical generative method. Our approach includes the Brain-Inspired Analogical Generator (BiAG), which derives new class weights from existing classes without parameter fine-tuning during incremental stages. BiAG consists of three components: Weight Self-Attention Module (WSA), Weight & Prototype Analogical Attention Module (WPAA), and Semantic Conversion Module (SCM). SCM uses Neural Collapse theory for semantic conversion, WSA supplements new class weights, and WPAA computes analogies to generate new class weights. Experiments on miniImageNet, CUB-200, and CIFAR-100 datasets demonstrate that our method achieves higher final and average accuracy compared to SOTA methods.
- Abstract(参考訳): FSCIL(Few-shot class-incremental Learning)は、モデルが学習済みのクラスのパフォーマンスを維持しながら、限られたデータから新しいクラスを学習できるようにする。
従来のFSCILメソッドは、新しいクラスデータに制限のある微調整パラメータを必要とすることが多く、新しいクラスを学習し、古い知識を活用するのに苦しむ。
ヒト脳の類推学習機構に着想を得て,新しい類推生成法を提案する。
私たちのアプローチには、インクリメンタル段階においてパラメータを微調整せずに既存のクラスから新しいクラス重みを導出するBrain-Inspired Analogical Generator (BiAG)が含まれる。
BiAGは3つのコンポーネントで構成されている: 軽量自己注意モジュール(WSA)、軽量&プロトタイプアナロジカルアテンションモジュール(WPAA)、セマンティックコンバージョンモジュール(SCM)。
SCMは意味変換にNeural Collapse理論を使用し、WSAは新しいクラスウェイトを補足し、WPAAはアナログを計算して新しいクラスウェイトを生成する。
miniImageNet, CUB-200, CIFAR-100データセットを用いた実験により, SOTA法と比較して, 最終的な精度と平均精度が向上することを示した。
関連論文リスト
- Sculpting [CLS] Features for Pre-Trained Model-Based Class-Incremental Learning [3.73232466691291]
クラス増分学習は、古いクラスを忘れることなく、新しいクラスの知識を継続的に獲得するモデルを必要とする。
事前学習されたモデルは、クラス増分学習において強い性能を示してきたが、新しい概念を学ぶ際に破滅的な忘れをしがちである。
本稿では,新しいパラメータ効率の高い微調整モジュール「Learn and Calibrate」 (LuCA) を導入する。
各学習セッションで、最後のトークンの上にスパースLuCAモジュールをデプロイし、それを'Token-level Sparse and Adaptation'(TO)と呼ぶ。
論文 参考訳(メタデータ) (2025-02-20T17:37:08Z) - Mamba-FSCIL: Dynamic Adaptation with Selective State Space Model for Few-Shot Class-Incremental Learning [113.89327264634984]
FSCIL(Few-shot class-incremental Learning)は、最小限のトレーニングサンプルを持つモデルに新しいクラスを統合するという課題に直面している。
従来の手法では、固定パラメータ空間に依存する静的適応を広く採用し、逐次到着するデータから学習する。
本稿では、動的適応のための中間特徴に基づいてプロジェクションパラメータを動的に調整する2つの選択型SSMプロジェクタを提案する。
論文 参考訳(メタデータ) (2024-07-08T17:09:39Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Few-Shot Class-Incremental Learning [68.75462849428196]
本稿では,FSCIL問題に焦点をあてる。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
我々は,異なるクラスで形成される特徴多様体のトポロジーを学習し,保存するニューラルネットワーク(NG)ネットワークを用いて,知識を表現する。
論文 参考訳(メタデータ) (2020-04-23T03:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。