論文の概要: Neuromodulated Neural Architectures with Local Error Signals for
Memory-Constrained Online Continual Learning
- arxiv url: http://arxiv.org/abs/2007.08159v2
- Date: Sat, 13 Mar 2021 19:10:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 22:14:56.481121
- Title: Neuromodulated Neural Architectures with Local Error Signals for
Memory-Constrained Online Continual Learning
- Title(参考訳): 局所誤差信号を用いたオンライン連続学習のためのニューロ変調ニューラルアーキテクチャ
- Authors: Sandeep Madireddy, Angel Yanguas-Gil, Prasanna Balaprakash
- Abstract要約: 我々は,局所学習とニューロ変調を取り入れた,生物学的にインスパイアされた軽量ニューラルネットワークアーキテクチャを開発した。
一つの課題と連続的な学習環境の両方にアプローチの有効性を実証する。
- 参考スコア(独自算出の注目度): 4.2903672492917755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to learn continuously from an incoming data stream without
catastrophic forgetting is critical for designing intelligent systems. Many
existing approaches to continual learning rely on stochastic gradient descent
and its variants. However, these algorithms have to implement various
strategies, such as memory buffers or replay, to overcome well-known
shortcomings of stochastic gradient descent methods in terms of stability,
greed, and short-term memory.
To that end, we develop a biologically-inspired light weight neural network
architecture that incorporates local learning and neuromodulation to enable
input processing over data streams and online learning. Next, we address the
challenge of hyperparameter selection for tasks that are not known in advance
by implementing transfer metalearning: using a Bayesian optimization to explore
a design space spanning multiple local learning rules and their
hyperparameters, we identify high performing configurations in classical single
task online learning and we transfer them to continual learning tasks with
task-similarity considerations.
We demonstrate the efficacy of our approach on both single task and continual
learning setting. For the single task learning setting, we demonstrate superior
performance over other local learning approaches on the MNIST, Fashion MNIST,
and CIFAR-10 datasets. Using high performing configurations metalearned in the
single task learning setting, we achieve superior continual learning
performance on Split-MNIST, and Split-CIFAR-10 data as compared with other
memory-constrained learning approaches, and match that of the state-of-the-art
memory-intensive replay-based approaches.
- Abstract(参考訳): 破滅的な忘れることなく、入ってくるデータストリームから継続的に学習する能力は、インテリジェントなシステムを設計する上で重要である。
継続学習への多くの既存のアプローチは確率勾配降下とその変種に依存している。
しかし、これらのアルゴリズムは、安定性、欲求、短期記憶の点で確率勾配降下法のよく知られた欠点を克服するために、メモリバッファやリプレイのような様々な戦略を実装しなければならない。
そこで我々は,局所学習とニューロ変調を取り入れた生物学的に着想を得た軽量ニューラルネットワークアーキテクチャを開発し,データストリームとオンライン学習による入力処理を実現する。
次に、トランスファーメタラーニングを実装することによって、事前に知られていないタスクのハイパーパラメータ選択の課題に対処する。 複数のローカル学習ルールとそのハイパーパラメータにまたがる設計空間をベイズ最適化を用いて探索し、古典的な単一タスクオンラインラーニングにおけるハイパフォーマンスな構成を特定し、タスク類似性を考慮した連続学習タスクに転送する。
単一タスクと連続学習環境の両方において,このアプローチの有効性を実証する。
単一のタスク学習設定では、mnist、 fashion mnist、cifar-10データセット上の他のローカル学習アプローチよりも優れたパフォーマンスを示す。
単一タスク学習環境におけるハイパフォーマンス構成を用いて,スプリットmnist,スプリットcifar-10データにおいて,他のメモリ制約学習手法と比較して優れた連続学習性能を達成し,最先端メモリ集約リプレイベースアプローチと一致させる。
関連論文リスト
- Neuro-mimetic Task-free Unsupervised Online Learning with Continual
Self-Organizing Maps [56.827895559823126]
自己組織化マップ(英: Self-organizing map、SOM)は、クラスタリングや次元減少によく用いられるニューラルネットワークモデルである。
低メモリ予算下でのオンライン教師なし学習が可能なSOM(連続SOM)の一般化を提案する。
MNIST, Kuzushiji-MNIST, Fashion-MNISTなどのベンチマークでは, ほぼ2倍の精度が得られた。
論文 参考訳(メタデータ) (2024-02-19T19:11:22Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Improving Performance in Continual Learning Tasks using Bio-Inspired
Architectures [4.2903672492917755]
我々は,シナプスの可塑性機構とニューロ変調を組み込んだ,生物学的にインスパイアされた軽量ニューラルネットワークアーキテクチャを開発した。
提案手法により,Split-MNIST,Split-CIFAR-10,Split-CIFAR-100データセット上でのオンライン連続学習性能が向上する。
さらに,鍵設計概念を他のバックプロパゲーションに基づく連続学習アルゴリズムに統合することにより,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-08-08T19:12:52Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Center Loss Regularization for Continual Learning [0.0]
一般的に、ニューラルネットワークには、さまざまなタスクを逐次学習する能力がない。
提案手法では,従来のタスクに近い新しいタスクの表現を投影することで,古いタスクを記憶する。
提案手法は,最先端の継続的学習手法と比較して,スケーラブルで効果的で,競争力のある性能を示す。
論文 参考訳(メタデータ) (2021-10-21T17:46:44Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - Improving the Accuracy of Early Exits in Multi-Exit Architectures via
Curriculum Learning [88.17413955380262]
マルチエクイットアーキテクチャにより、ディープニューラルネットワークは、正確なコストで厳密な期限に従うために、実行を早期に終了することができる。
カリキュラム学習を活用したマルチエクジットカリキュラム学習という新しい手法を紹介します。
本手法は, 標準訓練手法と比較して, 早期終了の精度を一貫して向上させる。
論文 参考訳(メタデータ) (2021-04-21T11:12:35Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z) - SpaceNet: Make Free Space For Continual Learning [15.914199054779438]
本研究では,クラスインクリメンタル学習シナリオのための新しいアーキテクチャベースのSpaceNetを提案する。
SpaceNetは、複数のニューロンで各タスクのスパース接続を圧縮する適応的な方法で、スクラッチから深層ニューラルネットワークを訓練する。
実験により,従来のタスクを忘れることに対する提案手法のロバストさと,モデルが利用可能な容量を利用する場合のSpaceNetの効率性を示す。
論文 参考訳(メタデータ) (2020-07-15T11:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。