論文の概要: Adapter Merging with Centroid Prototype Mapping for Scalable Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2412.18219v1
- Date: Tue, 24 Dec 2024 06:57:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:55:01.116633
- Title: Adapter Merging with Centroid Prototype Mapping for Scalable Class-Incremental Learning
- Title(参考訳): 拡張型クラスインクリメンタルラーニングのためのCentroid Prototype Mappingを用いたAdapter Merging
- Authors: Takuma Fukuda, Hiroshi Kera, Kazuhiko Kawamoto,
- Abstract要約: ACMapはタスク固有のアダプタを単一のアダプタに統合し、タスク間で一定の推論時間を確保する。
このフレームワークは、タスク表現を整列させ、忘れを緩和する共有サブスペースを構築するために、アダプタマージを採用している。
5つのベンチマークデータセットの実験は、ACMapが最先端の精度と一致し、最も高速な既存のメソッドに匹敵する推論時間を維持していることを示している。
- 参考スコア(独自算出の注目度): 5.2980803808373516
- License:
- Abstract: We propose Adapter Merging with Centroid Prototype Mapping (ACMap), an exemplar-free framework for class-incremental learning (CIL) that addresses both catastrophic forgetting and scalability. While existing methods trade-off between inference time and accuracy, ACMap consolidates task-specific adapters into a single adapter, ensuring constant inference time across tasks without compromising accuracy. The framework employs adapter merging to build a shared subspace that aligns task representations and mitigates forgetting, while centroid prototype mapping maintains high accuracy through consistent adaptation in the shared subspace. To further improve scalability, an early stopping strategy limits adapter merging as tasks increase. Extensive experiments on five benchmark datasets demonstrate that ACMap matches state-of-the-art accuracy while maintaining inference time comparable to the fastest existing methods. The code is available at https://github.com/tf63/ACMap
- Abstract(参考訳): 本稿では,Centroid Prototype Mapping (ACMap) を用いたAdapter Mergingを提案する。
既存のメソッドは推論時間と精度のトレードオフがあるが、ACMapはタスク固有のアダプタを単一のアダプタに統合し、精度を損なうことなくタスク間での推論時間を確保する。
このフレームワークは、アダプティブマージを使用して、タスク表現を整列させ、忘れを緩和する共有サブスペースを構築する。
スケーラビリティをさらに向上するため、早期停止戦略では、タスクの増加に応じてアダプタのマージが制限される。
5つのベンチマークデータセットに対する大規模な実験は、ACMapが最先端の精度と一致し、最も高速な既存のメソッドに匹敵する推論時間を維持していることを示している。
コードはhttps://github.com/tf63/ACMapで入手できる。
関連論文リスト
- Hyperspherical Classification with Dynamic Label-to-Prototype Assignment [5.978350039412277]
トレーニング中に各プロトタイプに割り当てられたカテゴリを最適化する,シンプルで効果的な手法を提案する。
この最適化は、勾配降下とバイパルチドマッチングの逐次組み合わせを用いて解決する。
CIFAR-100では1.22%の精度で、ImageNet-200では2.15%の精度で競合他社よりも優れています。
論文 参考訳(メタデータ) (2024-03-25T17:01:34Z) - CA2: Class-Agnostic Adaptive Feature Adaptation for One-class
Classification [37.96353879426153]
一クラス分類のためのクラス非依存適応型特徴適応法(CA2)を提案する。
センターベース手法を未知のクラスに一般化し、事前学習ネットワークに存在する事前学習に基づいて、この目的を最適化する。
CA2は1から1024までのトレーニングデータクラスのOCCパフォーマンスを継続的に改善し、最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2023-09-04T09:39:34Z) - MerA: Merging Pretrained Adapters For Few-Shot Learning [71.44422347502409]
モデル融合により,事前学習したアダプタを単一モデルに効率的に組み込むことができるtextbftextttMerging Pretrained Adapters (MerA)を提案する。
2つのPLMの実験では、MerAはシングルアダプタとAdapterFusionの両方と比較して大幅に改善されている。
論文 参考訳(メタデータ) (2023-08-30T12:10:17Z) - Adaptive Spot-Guided Transformer for Consistent Local Feature Matching [64.30749838423922]
局所的特徴マッチングのための適応スポットガイド変換器(ASTR)を提案する。
ASTRは、統一された粗いアーキテクチャにおける局所的な一貫性とスケールのバリエーションをモデル化する。
論文 参考訳(メタデータ) (2023-03-29T12:28:01Z) - Generalized Few-Shot Continual Learning with Contrastive Mixture of
Adapters [59.82088750033897]
我々は,クラスおよびドメインインクリメンタルな状況を含む汎用FSCL (GFSCL) プロトコルを構築した。
一般的な連続学習手法は、目に見えない領域に一般化能力が乏しいことが判明した。
このようにして、視覚変換器(ViT)に基づくリハーサルフリーフレームワークであるContrastive Mixture of Adapters(CMoA)を提案する。
論文 参考訳(メタデータ) (2023-02-12T15:18:14Z) - FastMapSVM: Classifying Complex Objects Using the FastMap Algorithm and
Support-Vector Machines [12.728875331529345]
我々は、複雑なオブジェクトを分類する新しいフレームワークであるFastMapSVMを紹介する。
FastMapSVMは、FastMapとSupport-Map Machinesの強みを組み合わせたものだ。
FastMapSVMのパフォーマンスは他の最先端のメソッドと同等であることを示す。
論文 参考訳(メタデータ) (2022-04-07T18:01:16Z) - Sparse Instance Activation for Real-Time Instance Segmentation [72.23597664935684]
本稿では,リアルタイムインスタンスセグメンテーションのための概念的・効率的・完全畳み込み型フレームワークを提案する。
SparseInstは非常に高速な推論速度を持ち、COCOベンチマークで40 FPSと37.9 APを達成した。
論文 参考訳(メタデータ) (2022-03-24T03:15:39Z) - Improving Task Adaptation for Cross-domain Few-shot Learning [41.821234589075445]
クロスドメインの少ショット分類は、ラベル付きサンプルがほとんどない未確認のクラスやドメインから分類器を学ぶことを目的としている。
残余接続を有する畳み込み層に付着したパラメトリックアダプタが最良であることを示す。
論文 参考訳(メタデータ) (2021-07-01T10:47:06Z) - Revisiting Deep Local Descriptor for Improved Few-Shot Classification [56.74552164206737]
textbfDense textbfClassification と textbfAttentive textbfPooling を利用して埋め込みの質を向上させる方法を示す。
広範に使われているグローバル平均プール (GAP) の代わりに, 注意深いプールを施し, 特徴マップをプールすることを提案する。
論文 参考訳(メタデータ) (2021-03-30T00:48:28Z) - Meta-Generating Deep Attentive Metric for Few-shot Classification [53.07108067253006]
本稿では,新しい数ショット学習タスクのための特定のメトリックを生成するための,新しい深度メタジェネレーション手法を提案する。
本研究では,各タスクの識別基準を生成するのに十分なフレキシブルな3層深い注意ネットワークを用いて,メトリクスを構造化する。
特に挑戦的なケースでは、最先端の競合他社よりも驚くほどパフォーマンスが向上しています。
論文 参考訳(メタデータ) (2020-12-03T02:07:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。