論文の概要: Learning to modulate random weights can induce task-specific contexts
for economical meta and continual learning
- arxiv url: http://arxiv.org/abs/2204.04297v1
- Date: Fri, 8 Apr 2022 21:12:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 10:28:29.141437
- Title: Learning to modulate random weights can induce task-specific contexts
for economical meta and continual learning
- Title(参考訳): ランダム重みを変調する学習は、経済的メタと連続学習のためのタスク固有の文脈を誘発する
- Authors: Jinyung Hong and Theodore P. Pavlic
- Abstract要約: 生体神経系における神経調節にインスパイアされた新しい神経ネットワークアーキテクチャを導入する。
タスク境界が利用できる場合、このアプローチは破滅的な忘れ物を完全に排除できることを示す。
本研究では,タスク境界の知識を必要とせずに連続的な学習を行うためのフレームワークにモデルを一般化できることを実証する。
- 参考スコア(独自算出の注目度): 3.5408022972081694
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Neural networks are vulnerable to catastrophic forgetting when data
distributions are non-stationary during continual online learning; learning of
a later task often leads to forgetting of an earlier task. One solution
approach is model-agnostic continual meta-learning, whereby both task-specific
and meta parameters are trained. Here, we depart from this view and introduce a
novel neural-network architecture inspired by neuromodulation in biological
nervous systems. Neuromodulation is the biological mechanism that dynamically
controls and fine-tunes synaptic dynamics to complement the behavioral context
in real-time, which has received limited attention in machine learning. We
introduce a single-hidden-layer network that learns only a relatively small
context vector per task (task-specific parameters) that neuromodulates
unchanging, randomized weights (meta parameters) that transform the input. We
show that when task boundaries are available, this approach can eliminate
catastrophic forgetting entirely while also drastically reducing the number of
learnable parameters relative to other context-vector-based approaches.
Furthermore, by combining this model with a simple meta-learning approach for
inferring task identity, we demonstrate that the model can be generalized into
a framework to perform continual learning without knowledge of task boundaries.
Finally, we showcase the framework in a supervised continual online learning
scenario and discuss the implications of the proposed formalism.
- Abstract(参考訳): ニューラルネットワークは、連続的なオンライン学習中にデータが定常的でない場合、破滅的な忘れ忘れに対して脆弱である。
1つのソリューションアプローチはモデルに依存しない連続メタ学習であり、タスク固有のパラメータとメタパラメータの両方をトレーニングする。
本稿では,生体神経系におけるニューロモジュレーションに触発された新しいニューラルネットワークアーキテクチャを提案する。
ニューロモジュレーション(Neuromodulation)は、機械学習において限られた注意を払っているリアルタイムの行動コンテキストを補完する、動的に制御する生物学的メカニズムである。
本稿では,タスクごとに比較的小さなコンテキストベクトル(タスク固有のパラメータ)のみを学習し,入力を変換するランダムな重み(メタパラメータ)をニューロ変調する単一隠れ層ネットワークを提案する。
タスク境界が利用できる場合、この手法は破滅的な忘れ込みを完全に排除すると同時に、他のコンテキストベクターベースのアプローチと比較して学習可能なパラメータの数を劇的に削減する。
さらに,このモデルと単純なメタ学習手法を組み合わせることで,タスク境界の知識を必要とせずに連続的な学習を行うためのフレームワークにモデルを一般化できることを実証する。
最後に,この枠組みを教師付きオンライン学習シナリオで紹介し,提案手法の意義について考察する。
関連論文リスト
- Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - ELiSe: Efficient Learning of Sequences in Structured Recurrent Networks [1.5931140598271163]
局所的な常時オンおよび位相自由可塑性のみを用いて,効率的な学習シーケンスのモデルを構築した。
鳥の鳴き声学習のモックアップでELiSeの能力を実証し、パラメトリゼーションに関してその柔軟性を実証する。
論文 参考訳(メタデータ) (2024-02-26T17:30:34Z) - Activity Sparsity Complements Weight Sparsity for Efficient RNN
Inference [2.0822643340897273]
本研究では、繰り返しニューラルネットワークモデルにおいて、活動空間がパラメータ空間と乗算的に構成可能であることを示す。
私たちはPenn Treebank言語モデリングタスクで60ドル以下の難易度を維持しながら、最大20ドルまで計算の削減を実現しています。
論文 参考訳(メタデータ) (2023-11-13T08:18:44Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Neuromorphic Algorithm-hardware Codesign for Temporal Pattern Learning [11.781094547718595]
複雑な空間時間パターンを学習するためにSNNを訓練できるLeaky IntegrateとFireニューロンの効率的なトレーニングアルゴリズムを導出する。
我々は,ニューロンとシナプスのメムリスタに基づくネットワークのためのCMOS回路実装を開発した。
論文 参考訳(メタデータ) (2021-04-21T18:23:31Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Brain-Inspired Learning on Neuromorphic Substrates [5.279475826661643]
本稿では、ニューロモルフィック基板のための実用的なオンライン学習アルゴリズムの設計のための数学的枠組みを提供する。
具体的には、リアルタイムリカレントラーニング(RTRL)と、スパイキングニューラルネットワーク(SNN)をトレーニングするための生物学的に妥当な学習規則との直接的な関連を示す。
我々はブロック対角ジャコビアンに基づくスパース近似を動機付け、アルゴリズムの計算複雑性を低減する。
論文 参考訳(メタデータ) (2020-10-22T17:56:59Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z) - Structural plasticity on an accelerated analog neuromorphic hardware
system [0.46180371154032884]
我々は, プレ・グポストシナプスのパートナーを常に切り替えることにより, 構造的可塑性を達成するための戦略を提案する。
我々はこのアルゴリズムをアナログニューロモルフィックシステムBrainScaleS-2に実装した。
ネットワークトポロジを最適化する能力を示し、簡単な教師付き学習シナリオで実装を評価した。
論文 参考訳(メタデータ) (2019-12-27T10:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。