論文の概要: Adaptive Aggregation Networks for Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2010.05063v3
- Date: Mon, 29 Mar 2021 22:09:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 22:36:17.471153
- Title: Adaptive Aggregation Networks for Class-Incremental Learning
- Title(参考訳): クラス増分学習のための適応集約ネットワーク
- Authors: Yaoyao Liu, Bernt Schiele, Qianru Sun
- Abstract要約: CIL(Class-Incremental Learning)は,段階別クラス数の増加にともなう分類モデルを学習することを目的としている。
CILの固有の問題は、古いクラスと新しいクラスの学習の間の安定性-塑性ジレンマである。
- 参考スコア(独自算出の注目度): 102.20140790771265
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Class-Incremental Learning (CIL) aims to learn a classification model with
the number of classes increasing phase-by-phase. An inherent problem in CIL is
the stability-plasticity dilemma between the learning of old and new classes,
i.e., high-plasticity models easily forget old classes, but high-stability
models are weak to learn new classes. We alleviate this issue by proposing a
novel network architecture called Adaptive Aggregation Networks (AANets), in
which we explicitly build two types of residual blocks at each residual level
(taking ResNet as the baseline architecture): a stable block and a plastic
block. We aggregate the output feature maps from these two blocks and then feed
the results to the next-level blocks. We adapt the aggregation weights in order
to balance these two types of blocks, i.e., to balance stability and
plasticity, dynamically. We conduct extensive experiments on three CIL
benchmarks: CIFAR-100, ImageNet-Subset, and ImageNet, and show that many
existing CIL methods can be straightforwardly incorporated into the
architecture of AANets to boost their performances.
- Abstract(参考訳): CIL(Class-Incremental Learning)は,段階別クラス数の増加による分類モデルを学習することを目的としている。
CILの固有の問題は、古いクラスと新しいクラスの学習の間の安定性-塑性ジレンマ、すなわち、高可塑性モデルは古いクラスを忘れやすいが、高安定性モデルは新しいクラスを学ぶのに弱いことである。
この問題を緩和するために、Adaptive Aggregation Networks (AANets)と呼ばれる新しいネットワークアーキテクチャを提案し、各残余レベルで2種類の残留ブロックを明示的に構築する(ResNetをベースラインアーキテクチャとする)。
これら2つのブロックから出力された特徴マップを集約し、その結果を次のブロックに供給します。
これら2種類のブロック,すなわち安定性と塑性のバランスをとるために,凝集重量を動的に調整する。
CIFAR-100、ImageNet-Subset、ImageNetの3つのCILベンチマークで広範な実験を行い、既存のCILメソッドの多くをAANetsのアーキテクチャに組み込んでパフォーマンスを向上させることができることを示す。
関連論文リスト
- Knowledge Adaptation Network for Few-Shot Class-Incremental Learning [23.90555521006653]
クラス増分学習(class-incremental learning)は、いくつかのサンプルを使用して、新しいクラスを段階的に認識することを目的としている。
この問題を解決する効果的な方法の1つは、原型進化分類器を構築することである。
新しいクラスの表現は弱で偏りがあるので、そのような戦略は準最適であると主張する。
論文 参考訳(メタデータ) (2024-09-18T07:51:38Z) - Mamba-FSCIL: Dynamic Adaptation with Selective State Space Model for Few-Shot Class-Incremental Learning [113.89327264634984]
FSCIL(Few-shot class-incremental Learning)は、最小限のトレーニングサンプルを持つモデルに新しいクラスを統合するという課題に直面している。
従来の手法では、固定パラメータ空間に依存する静的適応を広く採用し、逐次到着するデータから学習する。
本稿では、動的適応のための中間特徴に基づいてプロジェクションパラメータを動的に調整する2つの選択型SSMプロジェクタを提案する。
論文 参考訳(メタデータ) (2024-07-08T17:09:39Z) - Dynamic Feature Learning and Matching for Class-Incremental Learning [20.432575325147894]
CIL(Class-incremental Learning)は,従来のクラスを破滅的に忘れることなく,新しいクラスを学習する方法として登場した。
本稿では,動的特徴学習とマッチング(DFLM)モデルを提案する。
提案手法は既存手法に比べて大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-05-14T12:17:19Z) - Expandable Subspace Ensemble for Pre-Trained Model-Based Class-Incremental Learning [65.57123249246358]
PTMベースのCILのためのExpAndable Subspace Ensemble (EASE)を提案する。
タスク固有のサブスペースを作成することを目的として、新しいタスクごとに異なる軽量アダプタモジュールをトレーニングする。
我々のプロトタイプ補完戦略は、古いクラスのインスタンスを使わずに、古いクラスの新機能を合成します。
論文 参考訳(メタデータ) (2024-03-18T17:58:13Z) - CEAT: Continual Expansion and Absorption Transformer for Non-Exemplar
Class-Incremental Learning [34.59310641291726]
現実のアプリケーションでは、動的シナリオは、古い知識を忘れずに新しいタスクを継続的に学習する能力を持つ必要がある。
連続膨張吸収変圧器(CEAT)という新しいアーキテクチャを提案する。
このモデルは、凍結した前のパラメータと平行に拡散層を拡張することで、新しい知識を学ぶことができる。
モデルの学習能力を向上させるために,特徴空間における古クラスと新クラスの重複を低減するために,新しいプロトタイプを設計した。
論文 参考訳(メタデータ) (2024-03-11T12:40:12Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。