論文の概要: Continual Prune-and-Select: Class-incremental learning with specialized
subnetworks
- arxiv url: http://arxiv.org/abs/2208.04952v1
- Date: Tue, 9 Aug 2022 10:49:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-11 12:25:24.943723
- Title: Continual Prune-and-Select: Class-incremental learning with specialized
subnetworks
- Title(参考訳): 特殊サブネットを用いた連続的Prune-and-Select:クラスインクリメンタルラーニング
- Authors: Aleksandr Dekhovich, David M.J. Tax, Marcel H.F. Sluiter, Miguel A.
Bessa
- Abstract要約: CP&S(Continuous-Prune-and-Select)は、ImageNet-1000から10タスクを逐次学習できる。
これは、クラス増分学習における第一級の結果である。
- 参考スコア(独自算出の注目度): 66.4795381419701
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The human brain is capable of learning tasks sequentially mostly without
forgetting. However, deep neural networks (DNNs) suffer from catastrophic
forgetting when learning one task after another. We address this challenge
considering a class-incremental learning scenario where the DNN sees test data
without knowing the task from which this data originates. During training,
Continual-Prune-and-Select (CP&S) finds a subnetwork within the DNN that is
responsible for solving a given task. Then, during inference, CP&S selects the
correct subnetwork to make predictions for that task. A new task is learned by
training available neuronal connections of the DNN (previously untrained) to
create a new subnetwork by pruning, which can include previously trained
connections belonging to other subnetwork(s) because it does not update shared
connections. This enables to eliminate catastrophic forgetting by creating
specialized regions in the DNN that do not conflict with each other while still
allowing knowledge transfer across them. The CP&S strategy is implemented with
different subnetwork selection strategies, revealing superior performance to
state-of-the-art continual learning methods tested on various datasets
(CIFAR-100, CUB-200-2011, ImageNet-100 and ImageNet-1000). In particular, CP&S
is capable of sequentially learning 10 tasks from ImageNet-1000 keeping an
accuracy around 94% with negligible forgetting, a first-of-its-kind result in
class-incremental learning. To the best of the authors' knowledge, this
represents an improvement in accuracy above 20% when compared to the best
alternative method.
- Abstract(参考訳): 人間の脳は、ほとんど忘れずに順次タスクを学習することができる。
しかし、ディープニューラルネットワーク(DNN)は、あるタスクを次々に学習する際に破滅的な忘れに苦しむ。
この課題に対して,DNNがデータの起源を知らずにテストデータを見るという,クラスインクリメンタルな学習シナリオを考察する。
トレーニング中、Continuous-Prune-and-Select (CP&S)は、与えられたタスクの解決に責任を持つサブネットワークをDNN内で見つける。
そして、推論中にCP&Sは正しいサブネットワークを選択し、そのタスクの予測を行う。
新しいタスクは、DNN(以前は訓練を受けていなかった)の利用可能なニューロン接続をトレーニングして、プルーニングによって新しいサブネットワークを作成することで学習される。
これにより、相反しないDNN内の特別な領域を作成しながら、知識の移動を許すことで、破滅的な忘れをなくすことができる。
CP&S戦略は、様々なサブネットワーク選択戦略を用いて実装され、様々なデータセット(CIFAR-100、CUB-200-2011、ImageNet-100、ImageNet-1000)でテストされた最先端の連続学習手法よりも優れた性能を示す。
特にcp&sは、imagenet-1000から94%の精度で10のタスクをシーケンシャルに学習することができる。
著者の知る限りでは、最も優れた代替手法と比較して精度が20%以上向上したことを示している。
関連論文リスト
- Negotiated Representations to Prevent Forgetting in Machine Learning
Applications [0.0]
破滅的な忘れは、機械学習の分野で重要な課題である。
本稿では,機械学習アプリケーションにおける破滅的忘れを防止する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-11-30T22:43:50Z) - Provable Multi-Task Representation Learning by Two-Layer ReLU Neural Networks [69.38572074372392]
本稿では,複数タスクにおける非線形モデルを用いたトレーニング中に特徴学習が発生することを示す最初の結果を示す。
私たちのキーとなる洞察は、マルチタスク事前トレーニングは、通常タスク間で同じラベルを持つポイントを整列する表現を好む擬似コントラスト的損失を誘導するということです。
論文 参考訳(メタデータ) (2023-07-13T16:39:08Z) - An Exact Mapping From ReLU Networks to Spiking Neural Networks [3.1701886344065255]
本稿では,Rectified Linear Units (ReLUs) を用いたネットワークから,ニューロン毎のスパイクを正確に1回発射するSNNへの正確なマッピングを提案する。
より一般的には、任意の深部ReLUネットワークが、パフォーマンスを失うことなく、エネルギー効率のよい単一スパイクニューラルネットワークに置き換えられることを示す。
論文 参考訳(メタデータ) (2022-12-23T18:31:09Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - Making a Spiking Net Work: Robust brain-like unsupervised machine
learning [0.0]
Spiking Neural Networks (SNN)は、Artificial Neural Networks (ANN)の代替品である
SNNは動的安定性に悩まされており、ANNの精度と一致しない。
本稿では,SNNが文献で確認された多くの欠点を克服する方法について述べる。
論文 参考訳(メタデータ) (2022-08-02T02:10:00Z) - Increasing Depth of Neural Networks for Life-long Learning [2.0305676256390934]
本稿では,ニューラルネットワークの深度増加に基づく連続学習手法を提案する。
この研究は、ニューラルネットワークの深さを延ばすことが、生涯にわたる学習環境で有益かどうかを探求する。
論文 参考訳(メタデータ) (2022-02-22T11:21:41Z) - Enabling Deep Spiking Neural Networks with Hybrid Conversion and Spike
Timing Dependent Backpropagation [10.972663738092063]
Spiking Neural Networks(SNN)は非同期離散イベント(スパイク)で動作する
本稿では,深層SNNのための計算効率のよいトレーニング手法を提案する。
我々は、SNN上のImageNetデータセットの65.19%のトップ1精度を250タイムステップで達成し、同様の精度で変換されたSNNに比べて10倍高速である。
論文 参考訳(メタデータ) (2020-05-04T19:30:43Z) - Semantic Drift Compensation for Class-Incremental Learning [48.749630494026086]
ディープネットワークのクラス増分学習は、分類対象のクラス数を順次増加させる。
本研究では,特徴のセマンティックドリフト(セマンティックドリフト)と呼ばれるドリフトを推定し,その補正を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T13:31:19Z) - iTAML: An Incremental Task-Agnostic Meta-learning Approach [123.10294801296926]
人間は経験が成長するにつれて、新しい知識を継続的に学ぶことができる。
ディープニューラルネットワークにおける以前の学習は、新しいタスクでトレーニングされたときにすぐに消えてしまう可能性がある。
遭遇した全てのタスク間の平衡を維持するために,新しいメタラーニング手法を導入する。
論文 参考訳(メタデータ) (2020-03-25T21:42:48Z) - Side-Tuning: A Baseline for Network Adaptation via Additive Side
Networks [95.51368472949308]
適応は、トレーニングデータが少ない場合や、ネットワークのプリエンプションをエンコードしたい場合などに有効である。
本稿では,サイドチューニングという簡単な方法を提案する。
論文 参考訳(メタデータ) (2019-12-31T18:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。