論文の概要: Brain-inspired analogical mixture prototypes for few-shot class-incremental learning
- arxiv url: http://arxiv.org/abs/2502.18923v1
- Date: Wed, 26 Feb 2025 08:19:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:58:20.820352
- Title: Brain-inspired analogical mixture prototypes for few-shot class-incremental learning
- Title(参考訳): 数発クラスインクリメンタル学習のための脳誘発アナログ混合プロトタイプ
- Authors: Wanyi Li, Wei Wei, Yongkang Luo, Peng Wang,
- Abstract要約: FSCIL(Few-shot class-incremental Learning)は、ニューラルネットワークにおいて重要な課題である。
我々は、脳にインスパイアされたAnalogical Mixture Prototypes (BAMP) と呼ばれる新しいアプローチを提案する。
BAMPには、混合特徴学習、統計アナロジー、ソフト投票の3つのコンポーネントがある。
- 参考スコア(独自算出の注目度): 10.78374585352766
- License:
- Abstract: Few-shot class-incremental learning (FSCIL) poses significant challenges for artificial neural networks due to the need to efficiently learn from limited data while retaining knowledge of previously learned tasks. Inspired by the brain's mechanisms for categorization and analogical learning, we propose a novel approach called Brain-inspired Analogical Mixture Prototypes (BAMP). BAMP has three components: mixed prototypical feature learning, statistical analogy, and soft voting. Starting from a pre-trained Vision Transformer (ViT), mixed prototypical feature learning represents each class using a mixture of prototypes and fine-tunes these representations during the base session. The statistical analogy calibrates the mean and covariance matrix of prototypes for new classes according to similarity to the base classes, and computes classification score with Mahalanobis distance. Soft voting combines both merits of statistical analogy and an off-shelf FSCIL method. Our experiments on benchmark datasets demonstrate that BAMP outperforms state-of-the-art on both traditional big start FSCIL setting and challenging small start FSCIL setting. The study suggests that brain-inspired analogical mixture prototypes can alleviate catastrophic forgetting and over-fitting problems in FSCIL.
- Abstract(参考訳): FSCIL(Few-shot class-incremental Learning)は、以前に学習したタスクの知識を維持しながら、限られたデータから効率的に学習する必要があるため、人工知能に重大な課題を提起する。
脳の分類と類推学習のメカニズムにインスパイアされ、脳にインスパイアされたAnalogical Mixture Prototypes (BAMP) と呼ばれる新しいアプローチを提案する。
BAMPには3つの要素がある: 混合型特徴学習、統計アナロジー、ソフト投票である。
ViT (Pre-trained Vision Transformer) から始まる混合プロトタイプ特徴学習は,プロトタイプの混合とベースセッション中のこれらの表現の微調整を用いて,各クラスを表現する。
統計アナロジーは、基底クラスと類似性に応じて新しいクラスのプロトタイプの平均と共分散行列を校正し、マハラノビス距離の分類スコアを計算する。
ソフト投票は統計的アナロジーとオフシェルフFSCIL法の両方の利点を組み合わせたものである。
ベンチマークデータセットを用いた実験により、BAMPは従来のビッグスタートFSCIL設定と小さなスタートFSCIL設定の両方において最先端の成績を発揮することが示された。
この研究は、脳にインスパイアされたアナログ混合物のプロトタイプは、FSCILの破滅的な忘れ込みと過度に適合する問題を軽減できることを示唆している。
関連論文リスト
- AM-MTEEG: Multi-task EEG classification based on impulsive associative memory [6.240145569484483]
本研究では,ヒト海馬における学習と記憶の原理に着想を得たマルチタスク分類モデルAM-MTEEGを提案する。
このモデルは個々の脳波を独立したタスクとして扱い、個人間での機能共有を促進する。
2つのBCIコンペティションデータセットによる実験結果から,我々のモデルでは最先端モデルと比較して平均精度が向上していることがわかった。
論文 参考訳(メタデータ) (2024-09-27T01:33:45Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - Self-Evolution Learning for Mixup: Enhance Data Augmentation on Few-Shot
Text Classification Tasks [75.42002070547267]
テキスト分類におけるデータ拡張のための自己進化学習(SE)に基づくミックスアップ手法を提案する。
モデル出力と原サンプルの1つのホットラベルを線形に補間して,新しい軟質なラベル混在を生成する,新しいインスタンス固有ラベル平滑化手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T23:43:23Z) - Neural Collapse Inspired Feature-Classifier Alignment for Few-Shot Class
Incremental Learning [120.53458753007851]
FSCIL(Few-shot class-incremental Learning)は、新しいセッションにおいて、新しいクラスごとにいくつかのトレーニングサンプルしかアクセスできないため、難しい問題である。
我々は最近発見された神経崩壊現象にインスパイアされたFSCILのこの不整合ジレンマに対処する。
我々は、FSCILのための神経崩壊誘発フレームワークを提案する。MiniImageNet、CUB-200、CIFAR-100データセットの実験により、提案したフレームワークが最先端のパフォーマンスより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - Learning Primitive-aware Discriminative Representations for Few-shot
Learning [28.17404445820028]
少ないショットラーニングは、いくつかのラベル付き例で、新しいクラスを容易に認識できる分類器を学習することを目的としている。
プリミティブ・マイニング・アンド・リ共振ネットワーク(PMRN)を提案し,プリミティブ・アウェアな表現を学習する。
提案手法は,6つの標準ベンチマークの最先端結果を実現する。
論文 参考訳(メタデータ) (2022-08-20T16:22:22Z) - Partner-Assisted Learning for Few-Shot Image Classification [54.66864961784989]
人間の視覚能力を模倣し、徹底的な人間のアノテーションを必要とせずに効果的なモデルを学ぶために、わずかなショットラーニングが研究されている。
本稿では,新しいクラスのプロトタイプをラベル付きサンプルから推定できるように,要素表現を得るためのトレーニング戦略の設計に焦点をあてる。
本稿では,まずパートナーエンコーダのペアワイド類似性をモデル化し,ソフトアンカーとして機能する特徴を抽出し,その出力をソフトアンカーと整列させ,分類性能を最大化しようとする2段階トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T22:46:19Z) - A hybrid model-based and learning-based approach for classification
using limited number of training samples [13.60714541247498]
本稿では,物理に基づく統計モデルと学習に基づく分類器の両方を利用するハイブリッド分類手法であるHyPhyLearnを提案する。
提案手法は、HyPhyLearnが学習ベースおよび統計モデルに基づく分類器の個人的アプローチに関連する課題を軽減するという予想に基づいている。
論文 参考訳(メタデータ) (2021-06-25T05:19:50Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - A Novel Adaptive Minority Oversampling Technique for Improved
Classification in Data Imbalanced Scenarios [23.257891827728827]
異なるクラスに属するトレーニングサンプルの割合の不均衡は、しばしば従来の分類器の性能低下を引き起こす。
不均衡なデータに対処する新しい3ステップ手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T09:58:02Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - An in-depth comparison of methods handling mixed-attribute data for
general fuzzy min-max neural network [9.061408029414455]
我々は、データセットを混合特徴で扱う3つの主要な方法を比較し、評価する。
実験の結果,ターゲットとJames-SteinはGFMMモデルのアルゴリズムを学習するための適切な分類的符号化法であることがわかった。
GFMMニューラルネットワークと決定木の組み合わせは、データセット上のGFMMモデルの分類性能と混合特徴を向上するフレキシブルな方法である。
論文 参考訳(メタデータ) (2020-09-01T05:12:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。