論文の概要: Generative Kernel Continual learning
- arxiv url: http://arxiv.org/abs/2112.13410v1
- Date: Sun, 26 Dec 2021 16:02:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 14:41:16.006117
- Title: Generative Kernel Continual learning
- Title(参考訳): 生成カーネル連続学習
- Authors: Mohammad Mahdi Derakhshani and Xiantong Zhen and Ling Shao and Cees G.
M. Snoek
- Abstract要約: 本稿では、生成モデルとカーネル間の相乗効果を利用して連続学習を行う、生成カーネル連続学習を紹介する。
生成モデルは、カーネル学習のための代表サンプルを生成することができ、カーネル連続学習におけるメモリ依存を取り除くことができる。
コントリビューションの能力とメリットを示すために,広く利用されている3つの連続学習ベンチマークについて広範な実験を行った。
- 参考スコア(独自算出の注目度): 117.79080100313722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel continual learning by \citet{derakhshani2021kernel} has recently
emerged as a strong continual learner due to its non-parametric ability to
tackle task interference and catastrophic forgetting. Unfortunately its success
comes at the expense of an explicit memory to store samples from past tasks,
which hampers scalability to continual learning settings with a large number of
tasks. In this paper, we introduce generative kernel continual learning, which
explores and exploits the synergies between generative models and kernels for
continual learning. The generative model is able to produce representative
samples for kernel learning, which removes the dependence on memory in kernel
continual learning. Moreover, as we replay only on the generative model, we
avoid task interference while being computationally more efficient compared to
previous methods that need replay on the entire model. We further introduce a
supervised contrastive regularization, which enables our model to generate even
more discriminative samples for better kernel-based classification performance.
We conduct extensive experiments on three widely-used continual learning
benchmarks that demonstrate the abilities and benefits of our contributions.
Most notably, on the challenging SplitCIFAR100 benchmark, with just a simple
linear kernel we obtain the same accuracy as kernel continual learning with
variational random features for one tenth of the memory, or a 10.1\% accuracy
gain for the same memory budget.
- Abstract(参考訳): 最近,タスク干渉に対処する非パラメトリックな能力と破滅的な忘れこもりが原因で,Cernel continual learning by \citet{derakhshani2021kernel} が強力な連続学習者として登場した。
残念なことに、その成功は過去のタスクのサンプルを保存するための明示的なメモリを犠牲にしている。
本稿では,連続学習のための生成モデルとカーネルの相乗効果を探索し,活用する生成型カーネル連続学習を提案する。
生成モデルはカーネル学習のための代表サンプルを生成することができ、カーネル連続学習におけるメモリ依存を取り除くことができる。
さらに、生成モデル上でのみ再生するので、モデル全体をリプレイする必要がある従来の方法よりも計算効率が高く、タスクの干渉を回避できる。
さらに,カーネルベースの分類性能を向上させるために,より識別的なサンプル生成を可能にする教師付きコントラスト正規化も導入する。
コントリビューションの能力とメリットを示すために,広く利用されている3つの連続学習ベンチマークについて広範な実験を行った。
スプリットCIFAR100ベンチマークでは、単純な線形カーネルで、メモリの10分の1の変動ランダムな特徴を持つカーネル連続学習と同じ精度を得るか、同じメモリ予算で10.1\%の精度を得る。
関連論文リスト
- Class incremental learning with probability dampening and cascaded gated classifier [4.285597067389559]
本稿では, Margin Dampening と Cascaded Scaling という新たな漸進正規化手法を提案する。
1つ目は、ソフト制約と知識蒸留のアプローチを組み合わせて、過去の知識を保存し、新しいパターンを忘れることを可能にします。
提案手法は,複数のベンチマークにおいて,確立されたベースラインで良好に動作することを示す。
論文 参考訳(メタデータ) (2024-02-02T09:33:07Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Learning Curves for Sequential Training of Neural Networks:
Self-Knowledge Transfer and Forgetting [9.734033555407406]
我々は,タスクからタスクまでの目標関数を継続的に学習するニューラルネットワークをニューラルネットワークとして検討する。
モデルが複数のタスクで同じターゲット関数を学習する連続学習の変種について検討する。
同じターゲットであっても、トレーニングされたモデルは、各タスクのサンプルサイズに応じて、何らかの転送と忘れを見せる。
論文 参考訳(メタデータ) (2021-12-03T00:25:01Z) - Kernel Continual Learning [117.79080100313722]
カーネル連続学習は、破滅的な忘れ事に取り組むための、シンプルだが効果的な連続学習の変種である。
エピソードメモリユニットは、カーネルリッジ回帰に基づいてタスク固有の分類器を学ぶために、各タスクのサンプルのサブセットを格納する。
タスク毎にデータ駆動カーネルを学ぶための変動ランダム機能。
論文 参考訳(メタデータ) (2021-07-12T22:09:30Z) - MetaKernel: Learning Variational Random Features with Limited Labels [120.90737681252594]
少数の注釈付きサンプルから学習し、新しいタスクでうまく一般化できるという根本的かつ困難な問題に、少数のショットラーニングが対処します。
マルチショット学習のためのランダムなフーリエ機能を備えたメタラーニングカーネルをMeta Kernelと呼びます。
論文 参考訳(メタデータ) (2021-05-08T21:24:09Z) - Contrastive learning of strong-mixing continuous-time stochastic
processes [53.82893653745542]
コントラスト学習(Contrastive Learning)は、ラベルのないデータから構築された分類タスクを解決するためにモデルを訓練する自己指導型の手法のファミリーである。
拡散の場合,小~中距離間隔の遷移カーネルを適切に構築したコントラスト学習タスクを用いて推定できることが示される。
論文 参考訳(メタデータ) (2021-03-03T23:06:47Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。