論文の概要: Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2306.11967v1
- Date: Wed, 21 Jun 2023 01:43:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 15:17:43.374752
- Title: Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning
- Title(参考訳): パラメータ効率のよいクラスインクリメンタル学習のための補完学習サブネット
- Authors: Depeng Li, Zhigang Zeng
- Abstract要約: 本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
- 参考スコア(独自算出の注目度): 40.13416912075668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the scenario of class-incremental learning (CIL), deep neural networks
have to adapt their model parameters to non-stationary data distributions,
e.g., the emergence of new classes over time. However, CIL models are
challenged by the well-known catastrophic forgetting phenomenon. Typical
methods such as rehearsal-based ones rely on storing exemplars of old classes
to mitigate catastrophic forgetting, which limits real-world applications
considering memory resources and privacy issues. In this paper, we propose a
novel rehearsal-free CIL approach that learns continually via the synergy
between two Complementary Learning Subnetworks. Our approach involves jointly
optimizing a plastic CNN feature extractor and an analytical feed-forward
classifier. The inaccessibility of historical data is tackled by holistically
controlling the parameters of a well-trained model, ensuring that the decision
boundary learned fits new classes while retaining recognition of previously
learned classes. Specifically, the trainable CNN feature extractor provides
task-dependent knowledge separately without interference; and the final
classifier integrates task-specific knowledge incrementally for decision-making
without forgetting. In each CIL session, it accommodates new tasks by attaching
a tiny set of declarative parameters to its backbone, in which only one matrix
per task or one vector per class is kept for knowledge retention. Extensive
experiments on a variety of task sequences show that our method achieves
competitive results against state-of-the-art methods, especially in accuracy
gain, memory cost, training efficiency, and task-order robustness. Furthermore,
to make the non-growing backbone (i.e., a model with limited network capacity)
suffice to train on more incoming tasks, a graceful forgetting implementation
on previously learned trivial tasks is empirically investigated.
- Abstract(参考訳): クラスインクリメンタルラーニング(CIL)のシナリオでは、ディープニューラルネットワークはモデルパラメータを非定常データ分布(例えば時間とともに新しいクラスが出現するなど)に適応させなければならない。
しかし、CILモデルは有名な破滅的な忘れ物現象に挑戦されている。
リハーサルベースのリハーサルのような典型的な手法は、破滅的な忘れを緩和するために古いクラスの例を保存することに頼っている。
本稿では,2つの補完学習サブネットワーク間のシナジーを通じて連続的に学習するリハーサルフリーCIL手法を提案する。
提案手法では,cnn特徴抽出器と分析フィードフォワード分類器を共同で最適化する。
履歴データの到達不能性は、十分に訓練されたモデルのパラメータを確率的に制御し、学習した決定境界が新しいクラスに適合することを保証することで取り組まれる。
具体的には、訓練可能なCNN特徴抽出器は、干渉することなくタスク依存知識を別々に提供し、最終分類器は、タスク依存知識を、忘れずに段階的に統合する。
各CILセッションでは、タスク毎の1つの行列またはクラス毎の1つのベクトルだけが知識保持のために保持される、小さな宣言的パラメータのセットをバックボーンにアタッチすることで、新しいタスクに対応する。
様々なタスクシーケンスに関する広範囲な実験により,本手法は最先端手法,特に精度向上,メモリコスト,トレーニング効率,タスク次ロバスト性と競合する結果が得られることが示された。
さらに、成長しないバックボーン(ネットワーク容量に制限のあるモデル)がより多くのタスクを学習するのに十分であるように、事前学習された自明なタスクに対する優雅な実装を実証的に検討する。
関連論文リスト
- Beyond Prompt Learning: Continual Adapter for Efficient Rehearsal-Free Continual Learning [22.13331870720021]
C-ADA (Continuous Adapter) という,RFCL タスクに対する超高速学習手法を提案する。
C-ADAは、CALの特定の重みを柔軟に拡張し、各タスクの新たな知識を学び、古い重みを凍結して以前の知識を保存する。
提案手法は,現状のSOTA(State-of-the-art)法よりも優れ,性能とトレーニング速度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-14T17:40:40Z) - Parameter-Efficient and Memory-Efficient Tuning for Vision Transformer: A Disentangled Approach [87.8330887605381]
本稿では,学習可能なパラメータをわずかに限定して,事前学習した視覚変換器を下流認識タスクに適用する方法を示す。
学習可能で軽量なモジュールを用いてタスク固有のクエリを合成する。
本手法はメモリ制約下での最先端性能を実現し,実環境における適用性を示す。
論文 参考訳(メタデータ) (2024-07-09T15:45:04Z) - Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Class incremental learning with probability dampening and cascaded gated classifier [4.285597067389559]
本稿では, Margin Dampening と Cascaded Scaling という新たな漸進正規化手法を提案する。
1つ目は、ソフト制約と知識蒸留のアプローチを組み合わせて、過去の知識を保存し、新しいパターンを忘れることを可能にします。
提案手法は,複数のベンチマークにおいて,確立されたベースラインで良好に動作することを示す。
論文 参考訳(メタデータ) (2024-02-02T09:33:07Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Continual Learning with Pretrained Backbones by Tuning in the Input
Space [44.97953547553997]
ディープラーニングモデルを非定常環境に適用することの本質的な困難さは、ニューラルネットワークの実際のタスクへの適用性を制限している。
ネットワークの事前学習部分の更新を回避し、通常の分類ヘッドだけでなく、新たに導入した学習可能なパラメータのセットも学習することで、微調整手順をより効果的にするための新しい戦略を提案する。
論文 参考訳(メタデータ) (2023-06-05T15:11:59Z) - Informative regularization for a multi-layer perceptron RR Lyrae
classifier under data shift [3.303002683812084]
本稿では,情報正規化とアドホックなトレーニング手法に基づくスケーラブルで容易に適応可能なアプローチを提案し,シフト問題を緩和する。
提案手法は,特徴量からの知識をニューラルネットワークに組み込むことで,基礎となるデータシフト問題を管理する。
論文 参考訳(メタデータ) (2023-03-12T02:49:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。