論文の概要: Do What Nature Did To Us: Evolving Plastic Recurrent Neural Networks For
Task Generalization
- arxiv url: http://arxiv.org/abs/2109.03554v1
- Date: Wed, 8 Sep 2021 11:34:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 23:18:35.523281
- Title: Do What Nature Did To Us: Evolving Plastic Recurrent Neural Networks For
Task Generalization
- Title(参考訳): タスクの一般化のためにプラスチックのリカレントニューラルネットワークを進化させる
- Authors: Fan Wang, Hao Tian, Haoyi Xiong, Hua Wu, Yang Cao, Yu Kang, Haifeng
Wang
- Abstract要約: 進化的プラスチックリカレントニューラルネットワーク(EPRNN)というフレームワークを提案する。
EPRNNは、進化戦略、塑性規則、再帰に基づく学習を1つのメタ学習フレームワークで構成し、異なるタスクに一般化する。
EPRNNの内ループでは,再帰学習機構を用いて塑性を鍛造することにより,長期記憶と短期記憶の両方を効果的に実現している。
- 参考スコア(独自算出の注目度): 38.83701855637824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While artificial neural networks (ANNs) have been widely adopted in machine
learning, researchers are increasingly obsessed by the gaps between ANNs and
biological neural networks (BNNs). In this paper, we propose a framework named
as Evolutionary Plastic Recurrent Neural Networks} (EPRNN). Inspired by BNN,
EPRNN composes Evolution Strategies, Plasticity Rules, and Recursion-based
Learning all in one meta learning framework for generalization to different
tasks. More specifically, EPRNN incorporates with nested loops for meta
learning -- an outer loop searches for optimal initial parameters of the neural
network and learning rules; an inner loop adapts to specific tasks. In the
inner loop of EPRNN, we effectively attain both long term memory and short term
memory by forging plasticity with recursion-based learning mechanisms, both of
which are believed to be responsible for memristance in BNNs. The inner-loop
setting closely simulate that of BNNs, which neither query from any gradient
oracle for optimization nor require the exact forms of learning objectives. To
evaluate the performance of EPRNN, we carry out extensive experiments in two
groups of tasks: Sequence Predicting, and Wheeled Robot Navigating. The
experiment results demonstrate the unique advantage of EPRNN compared to
state-of-the-arts based on plasticity and recursion while yielding comparably
good performance against deep learning based approaches in the tasks. The
experiment results suggest the potential of EPRNN to generalize to variety of
tasks and encourage more efforts in plasticity and recursion based learning
mechanisms.
- Abstract(参考訳): 人工知能(ANN)は機械学習に広く採用されているが、研究者はANNと生物学的ニューラルネットワーク(BNN)のギャップに悩まされている。
本稿では,進化的塑性リカレントニューラルネットワーク(EPRNN)というフレームワークを提案する。
BNNにインスパイアされたEPRNNは、Evolution Strategies、Plasticity Rules、Recursion-based Learningを1つのメタ学習フレームワークで構成し、異なるタスクに一般化する。
より具体的には、EPRNNは、メタ学習のためのネストループを組み込んでいる -- 外ループは、ニューラルネットワークと学習ルールの最適な初期パラメータを検索する。
EPRNN の内ループでは,BNN における分裂の原因と考えられる再帰学習機構を用いて塑性を鍛造することにより,長期記憶と短期記憶の両方を効果的に達成する。
内部ループ設定は、最適化のために勾配oracleから問い合わせも、学習対象の正確な形式も必要としない、bnnのそれを正確にシミュレートする。
eprnnの性能を評価するために,シーケンス予測と車輪付きロボットナビゲーションという2つのタスクで広範な実験を行った。
実験の結果,eprnnは,可塑性や再帰性に基づく最先端技術と比較して,タスクにおける深層学習に基づくアプローチに比較して,比較可能な性能を示すことができた。
実験結果は,EPRNNが様々なタスクに一般化し,可塑性と再帰に基づく学習機構へのさらなる取り組みを促進する可能性を示唆している。
関連論文リスト
- Investigating Sparsity in Recurrent Neural Networks [0.0]
本論文は, プルーニングとスパースリカレントニューラルネットワークがRNNの性能に与える影響を考察することに焦点を当てる。
まず,RNNの刈り込み,RNNの性能への影響,および刈り込み後の精度回復に必要な訓練エポック数について述べる。
次に、スパースリカレントニューラルネットワークの作成と訓練を継続し、その基礎となる任意の構造の性能とグラフ特性の関係を同定する。
論文 参考訳(メタデータ) (2024-07-30T07:24:58Z) - Context Gating in Spiking Neural Networks: Achieving Lifelong Learning through Integration of Local and Global Plasticity [20.589970453110208]
ヒトは前頭前皮質(PFC)の文脈ゲーティング機構を通じて、最小の相互干渉で連続して複数のタスクを学習する
本研究では,生涯学習のための局所可塑性規則(CG-SNN)によって訓練された文脈ゲーティングを用いたSNNを提案する。
実験により,提案モデルは過去の学習経験を維持する上で有効であり,生涯学習における他の方法よりも優れたタスク選択性を有することが示された。
論文 参考訳(メタデータ) (2024-06-04T01:35:35Z) - Artificial to Spiking Neural Networks Conversion for Scientific Machine
Learning [24.799635365988905]
物理インフォームドニューラルネットワーク(PINN)をスパイキングニューラルネットワーク(SNN)に変換する手法を提案する。
SNNは従来のニューラルネットワーク(ANN)と比較してエネルギー効率が高いと期待されている
論文 参考訳(メタデータ) (2023-08-31T00:21:27Z) - Enhancing Efficient Continual Learning with Dynamic Structure
Development of Spiking Neural Networks [6.407825206595442]
子どもは複数の認知タスクを逐次学習する能力を持っている。
既存の連続学習フレームワークは通常、ディープニューラルネットワーク(DNN)に適用できる。
本研究では,効率的な適応型連続学習のためのスパイキングニューラルネットワーク(DSD-SNN)の動的構造開発を提案する。
論文 参考訳(メタデータ) (2023-08-09T07:36:40Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Linear Leaky-Integrate-and-Fire Neuron Model Based Spiking Neural
Networks and Its Mapping Relationship to Deep Neural Networks [7.840247953745616]
スパイキングニューラルネットワーク(SNN)は、生物学的可視性や教師なし学習能力など、脳にインスパイアされた機械学習アルゴリズムである。
本稿では,リニアリーキー・インテグレート・アンド・ファイア・モデル(LIF/SNN)の生物学的パラメータとReLU-AN/Deep Neural Networks(DNN)のパラメータとの正確な数学的マッピングを確立する。
論文 参考訳(メタデータ) (2022-05-31T17:02:26Z) - Neuroevolution of a Recurrent Neural Network for Spatial and Working
Memory in a Simulated Robotic Environment [57.91534223695695]
我々は,ラットで観察される行動と神経活動を再現する進化的アルゴリズムを用いて,生物学的に有意なリカレントニューラルネットワーク(RNN)でウェイトを進化させた。
提案手法は, 進化したRNNの動的活動が, 興味深く複雑な認知行動をどのように捉えているかを示す。
論文 参考訳(メタデータ) (2021-02-25T02:13:52Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。