論文の概要: Schematic Memory Persistence and Transience for Efficient and Robust
Continual Learning
- arxiv url: http://arxiv.org/abs/2105.02085v1
- Date: Wed, 5 May 2021 14:32:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 12:43:34.958779
- Title: Schematic Memory Persistence and Transience for Efficient and Robust
Continual Learning
- Title(参考訳): 効率良くロバストな連続学習のためのスキーマ記憶持続性と超越性
- Authors: Yuyang Gao, Giorgio A. Ascoli, Liang Zhao
- Abstract要約: 継続学習は、次世代人工知能(AI)に向けた有望なステップであると考えられている
まだ非常に原始的であり、既存の作品は主に(破滅的な)忘れの回避に焦点が当てられている。
神経科学の最近の進歩を踏まえた,外部記憶を用いた連続学習のための新しい枠組みを提案する。
- 参考スコア(独自算出の注目度): 8.030924531643532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning is considered a promising step towards next-generation
Artificial Intelligence (AI), where deep neural networks (DNNs) make decisions
by continuously learning a sequence of different tasks akin to human learning
processes. It is still quite primitive, with existing works focusing primarily
on avoiding (catastrophic) forgetting. However, since forgetting is inevitable
given bounded memory and unbounded task loads, 'how to reasonably forget' is a
problem continual learning must address in order to reduce the performance gap
between AIs and humans, in terms of 1) memory efficiency, 2) generalizability,
and 3) robustness when dealing with noisy data. To address this, we propose a
novel ScheMAtic memory peRsistence and Transience (SMART) framework for
continual learning with external memory that builds on recent advances in
neuroscience. The efficiency and generalizability are enhanced by a novel
long-term forgetting mechanism and schematic memory, using sparsity and
'backward positive transfer' constraints with theoretical guarantees on the
error bound. Robust enhancement is achieved using a novel short-term forgetting
mechanism inspired by background information-gated learning. Finally, an
extensive experimental analysis on both benchmark and real-world datasets
demonstrates the effectiveness and efficiency of our model.
- Abstract(参考訳): 継続的学習は、深層ニューラルネットワーク(dnn)が人間の学習プロセスに似たさまざまなタスクのシーケンスを継続的に学習することによって意思決定を行う、次世代人工知能(ai)への有望なステップだと考えられている。
まだ非常に原始的であり、既存の作品は主に(破滅的な)忘れの回避に焦点が当てられている。
しかし、境界メモリと無拘束なタスク負荷では、忘れは避けられないため、1)記憶効率、2)一般化性、3)ノイズデータを扱う際の堅牢性という観点から、aiと人間のパフォーマンスギャップを減らすために、連続学習は対処しなければならない問題である。
そこで我々は,近年の神経科学の進歩を基盤として,外部記憶を用いた連続学習のための新しいSchematic memory peRsistence and Transience(SMART)フレームワークを提案する。
効率性と一般化性は、誤差境界の理論的保証を伴う空間性と「後方正の転送」制約を用いて、新しい長期記憶機構とスキーマ記憶によって向上される。
強固な強化は、背景情報ゲーテッド学習にインスパイアされた新しい短期記憶機構を用いて達成される。
最後に、ベンチマークと実世界の両方のデータセットに関する広範な実験分析により、我々のモデルの有効性と効率を示す。
関連論文リスト
- Stable Hadamard Memory: Revitalizing Memory-Augmented Agents for Reinforcement Learning [64.93848182403116]
現在のディープラーニングメモリモデルは、部分的に観察可能で長期にわたる強化学習環境で苦労している。
本稿では,強化学習エージェントのための新しい記憶モデルであるStable Hadamard Memoryを紹介する。
我々の手法は、部分的に観測可能なベンチマークに挑戦する上で、最先端のメモリベースの手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T03:50:17Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Improving Performance in Continual Learning Tasks using Bio-Inspired
Architectures [4.2903672492917755]
我々は,シナプスの可塑性機構とニューロ変調を組み込んだ,生物学的にインスパイアされた軽量ニューラルネットワークアーキテクチャを開発した。
提案手法により,Split-MNIST,Split-CIFAR-10,Split-CIFAR-100データセット上でのオンライン連続学習性能が向上する。
さらに,鍵設計概念を他のバックプロパゲーションに基づく連続学習アルゴリズムに統合することにより,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-08-08T19:12:52Z) - Sparsity and Heterogeneous Dropout for Continual Learning in the Null
Space of Neural Activations [36.24028295650668]
非定常的な入力データストリームからの連続的/長期的学習は知性の基盤である。
ディープニューラルネットワークは、新しいものを学ぶ際に、これまで学んだ情報を忘れる傾向がある。
近年、ディープニューラルネットワークにおける破滅的な忘れを乗り越えることが、研究の活発な分野となっている。
論文 参考訳(メタデータ) (2022-03-12T21:12:41Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Center Loss Regularization for Continual Learning [0.0]
一般的に、ニューラルネットワークには、さまざまなタスクを逐次学習する能力がない。
提案手法では,従来のタスクに近い新しいタスクの表現を投影することで,古いタスクを記憶する。
提案手法は,最先端の継続的学習手法と比較して,スケーラブルで効果的で,競争力のある性能を示す。
論文 参考訳(メタデータ) (2021-10-21T17:46:44Z) - Understanding Catastrophic Forgetting and Remembering in Continual
Learning with Optimal Relevance Mapping [10.970706194360451]
ニューラルネットワークにおける破滅的な忘れは、継続的な学習にとって重要な問題です。
最適オーバーラップ仮説にインスパイアされたRelevance Mapping Networks(RMN)を紹介します。
我々は、RMNが破滅的な忘れと記憶の双対の問題を乗り越える最適化された表現重複を学ぶことを示しています。
論文 参考訳(メタデータ) (2021-02-22T20:34:00Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z) - Untangling tradeoffs between recurrence and self-attention in neural
networks [81.30894993852813]
本稿では,再帰的ネットワークにおける自己注意が勾配伝播に与える影響を公式に分析する。
長期的な依存関係を捉えようとするとき、勾配をなくすことの問題を緩和することを証明する。
本稿では,スパース自己アテンションを反復的にスケーラブルに利用するための関連性スクリーニング機構を提案する。
論文 参考訳(メタデータ) (2020-06-16T19:24:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。