論文の概要: Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning
- arxiv url: http://arxiv.org/abs/2202.10203v1
- Date: Mon, 21 Feb 2022 13:25:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-22 16:45:59.347690
- Title: Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning
- Title(参考訳): 連続学習のための完全リプレイによるベイズスパースネットワークの学習
- Authors: Dong Gong, Qingsen Yan, Yuhang Liu, Anton van den Hengel, Javen
Qinfeng Shi
- Abstract要約: 継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
- 参考スコア(独自算出の注目度): 54.7584721943286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual Learning (CL) methods aim to enable machine learning models to
learn new tasks without catastrophic forgetting of those that have been
previously mastered. Existing CL approaches often keep a buffer of
previously-seen samples, perform knowledge distillation, or use regularization
techniques towards this goal. Despite their performance, they still suffer from
interference across tasks which leads to catastrophic forgetting. To ameliorate
this problem, we propose to only activate and select sparse neurons for
learning current and past tasks at any stage. More parameters space and model
capacity can thus be reserved for the future tasks. This minimizes the
interference between parameters for different tasks. To do so, we propose a
Sparse neural Network for Continual Learning (SNCL), which employs variational
Bayesian sparsity priors on the activations of the neurons in all layers. Full
Experience Replay (FER) provides effective supervision in learning the sparse
activations of the neurons in different layers. A loss-aware reservoir-sampling
strategy is developed to maintain the memory buffer. The proposed method is
agnostic as to the network structures and the task boundaries. Experiments on
different datasets show that our approach achieves state-of-the-art performance
for mitigating forgetting.
- Abstract(参考訳): 継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
パフォーマンスにも拘わらず、タスク間の干渉に苦しめられ、破滅的な忘れに繋がる。
この問題を改善するために,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化・選択することを提案する。
これにより、将来のタスクにより多くのパラメータ空間とモデルキャパシティを確保できる。
これにより、異なるタスクのパラメータ間の干渉を最小限に抑えることができる。
そこで本研究では,すべての層におけるニューロンの活性化に先立って,ベイズ空間の変動を利用したSparse Neural Network for Continual Learning (SNCL)を提案する。
FER(Full Experience Replay)は、異なるレイヤのニューロンのスパースアクティベーションを学習するための効果的な監視を提供する。
メモリバッファを維持するために、ロスアウェアリザーバサンプリング戦略が開発されている。
提案手法は,ネットワーク構造とタスク境界に関して不可知である。
異なるデータセットに対する実験により,我々の手法は,忘れを緩和するために最先端のパフォーマンスを実現することが示された。
関連論文リスト
- Continual Diffuser (CoD): Mastering Continual Offline Reinforcement Learning with Experience Rehearsal [54.93261535899478]
強化学習のロボット制御のような現実世界の応用では、タスクが変化し、新しいタスクが順次発生する。
この状況は、タスクの変更に適応し、獲得した知識を保持するエージェントを訓練する上で、可塑性-安定トレードオフという新たな課題を生じさせる。
本研究では,連続拡散器(Continuous diffuser,CoD)と呼ばれるリハーサルに基づく連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2024-09-04T08:21:47Z) - Negotiated Representations to Prevent Forgetting in Machine Learning
Applications [0.0]
破滅的な忘れは、機械学習の分野で重要な課題である。
本稿では,機械学習アプリケーションにおける破滅的忘れを防止する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-11-30T22:43:50Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Continual Learning via Bit-Level Information Preserving [88.32450740325005]
我々は情報理論のレンズを通して連続学習過程を研究する。
モデルパラメータの情報利得を維持するビットレベル情報保存(BLIP)を提案する。
BLIPは、連続的な学習を通してメモリオーバーヘッドを一定に保ちながら、ほとんど忘れることができない。
論文 参考訳(メタデータ) (2021-05-10T15:09:01Z) - Gradient Projection Memory for Continual Learning [5.43185002439223]
過去のタスクを忘れずに継続的に学習する能力は、人工学習システムにとって望ましい属性です。
ニューラルネットワークは,従来のタスクにとって重要と考えられる勾配部分空間に直交方向の勾配を向けることで,新しいタスクを学習する手法を提案する。
論文 参考訳(メタデータ) (2021-03-17T16:31:29Z) - Improving Computational Efficiency in Visual Reinforcement Learning via
Stored Embeddings [89.63764845984076]
効率的な強化学習のためのストアド埋め込み(SEER)について紹介します。
SEERは、既存の非政治深層強化学習方法の簡単な修正です。
計算とメモリを大幅に節約しながら、SEERがRLizableエージェントのパフォーマンスを低下させないことを示します。
論文 参考訳(メタデータ) (2021-03-04T08:14:10Z) - Continual Learning in Low-rank Orthogonal Subspaces [86.36417214618575]
連続学習(CL)では、学習者は一連のタスクに直面して次々に到着し、学習経験が終わるとすべてのタスクを覚えることが目的である。
CLの以前の技術は、タスク間の干渉を減らすためにエピソードメモリ、パラメータ正規化、ネットワーク構造を使用していたが、最終的には、全てのアプローチが共同ベクトル空間で異なるタスクを学習する。
干渉を最小限に抑えるために互いに直交する異なる(低ランクな)ベクトル部分空間でタスクを学習することを提案する。
論文 参考訳(メタデータ) (2020-10-22T12:07:43Z) - Neuromodulated Neural Architectures with Local Error Signals for
Memory-Constrained Online Continual Learning [4.2903672492917755]
我々は,局所学習とニューロ変調を取り入れた,生物学的にインスパイアされた軽量ニューラルネットワークアーキテクチャを開発した。
一つの課題と連続的な学習環境の両方にアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-07-16T07:41:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。