論文の概要: Learning in Feedback-driven Recurrent Spiking Neural Networks using
full-FORCE Training
- arxiv url: http://arxiv.org/abs/2205.13585v1
- Date: Thu, 26 May 2022 19:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-05 08:22:56.250221
- Title: Learning in Feedback-driven Recurrent Spiking Neural Networks using
full-FORCE Training
- Title(参考訳): フルFORCEトレーニングを用いたフィードバック駆動リカレントスパイクニューラルネットワークの学習
- Authors: Ankita Paul, Stefan Wagner and Anup Das
- Abstract要約: 本稿では,トレーニング中にのみ第2のネットワークを導入するRSNNの教師付きトレーニング手順を提案する。
提案したトレーニング手順は、リカレント層とリードアウト層の両方のターゲットを生成することで構成される。
本研究では,8つの力学系をモデル化するためのフルFORCEトレーニング手法の性能向上とノイズ堅牢性を示す。
- 参考スコア(独自算出の注目度): 4.124948554183487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feedback-driven recurrent spiking neural networks (RSNNs) are powerful
computational models that can mimic dynamical systems. However, the presence of
a feedback loop from the readout to the recurrent layer de-stabilizes the
learning mechanism and prevents it from converging. Here, we propose a
supervised training procedure for RSNNs, where a second network is introduced
only during the training, to provide hint for the target dynamics. The proposed
training procedure consists of generating targets for both recurrent and
readout layers (i.e., for a full RSNN system). It uses the recursive least
square-based First-Order and Reduced Control Error (FORCE) algorithm to fit the
activity of each layer to its target. The proposed full-FORCE training
procedure reduces the amount of modifications needed to keep the error between
the output and target close to zero. These modifications control the feedback
loop, which causes the training to converge. We demonstrate the improved
performance and noise robustness of the proposed full-FORCE training procedure
to model 8 dynamical systems using RSNNs with leaky integrate and fire (LIF)
neurons and rate coding. For energy-efficient hardware implementation, an
alternative time-to-first-spike (TTFS) coding is implemented for the full-
FORCE training procedure. Compared to rate coding, full-FORCE with TTFS coding
generates fewer spikes and facilitates faster convergence to the target
dynamics.
- Abstract(参考訳): フィードバック駆動リカレントスパイクニューラルネットワーク(RSNN)は、動的システムを模倣できる強力な計算モデルである。
しかし、読み出しからリカレント層へのフィードバックループの存在は学習機構を不安定化させ、収束を防止する。
本稿では、トレーニング中にのみ第2のネットワークを導入するRSNNの教師付きトレーニング手順を提案し、ターゲットダイナミクスのヒントを提供する。
提案したトレーニング手順は、リカレント層とリードアウト層の両方(すなわち完全なRSNNシステム)のターゲットを生成することで構成される。
再帰的最小二乗法に基づく第1次および還元制御誤差(FORCE)アルゴリズムを使用して、各レイヤのアクティビティをターゲットに適合させる。
提案したフルFORCEトレーニング手順により、出力とターゲット間の誤差をゼロに抑えるのに必要な修正量を削減できる。
これらの修正はフィードバックループを制御し、トレーニングが収束する。
提案したフルFORCEトレーニング手法の性能向上とノイズの堅牢性について,漏洩統合火災(LIF)ニューロンとレート符号化を用いたRSNNを用いて,8つの力学系をモデル化した。
エネルギー効率のよいハードウェア実装では、フルFORCEトレーニング手順のためにTTFS (Time-to-first-Spike) 符号化が実装されている。
レートコーディングと比較すると、フルFORCEとTTFSのコーディングはスパイクを少なくし、ターゲットのダイナミックスへの高速な収束を容易にする。
関連論文リスト
- Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Fixing the NTK: From Neural Network Linearizations to Exact Convex
Programs [63.768739279562105]
学習目標に依存しない特定のマスクウェイトを選択する場合、このカーネルはトレーニングデータ上のゲートReLUネットワークのNTKと等価であることを示す。
この目標への依存の欠如の結果として、NTKはトレーニングセット上の最適MKLカーネルよりもパフォーマンスが良くない。
論文 参考訳(メタデータ) (2023-09-26T17:42:52Z) - One Forward is Enough for Neural Network Training via Likelihood Ratio
Method [47.013384887197454]
バックプロパゲーション(BP)は、ニューラルネットワークトレーニングにおける勾配計算の主流のアプローチである。
本手法は,1つの前方伝播による推定のための統一可能性比 (ULR) 法を提案する。
論文 参考訳(メタデータ) (2023-05-15T19:02:46Z) - Learning a Consensus Sub-Network with Polarization Regularization and
One Pass Training [3.2214522506924093]
プルーニングスキームは、静的プルーニングのための反復的なトレーニングと微調整、動的プルーニンググラフの繰り返し計算によって、余分なオーバーヘッドを生み出す。
本稿では,より軽量なサブネットワークを学習するためのパラメータ解析手法を提案する。
CIFAR-10 と CIFAR-100 を用いた結果,分類精度が1% 未満の深層ネットワークにおける接続の50%を除去できることが示唆された。
論文 参考訳(メタデータ) (2023-02-17T09:37:17Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Desire Backpropagation: A Lightweight Training Algorithm for Multi-Layer
Spiking Neural Networks based on Spike-Timing-Dependent Plasticity [13.384228628766236]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワークの代替となる。
本研究は,隠されたニューロンを含むすべてのニューロンの所望のスパイク活性を導出する方法である欲求バックプロパゲーションを提示する。
我々はMNISTとFashion-MNISTを分類するために3層ネットワークを訓練し、それぞれ98.41%と87.56%の精度に達した。
論文 参考訳(メタデータ) (2022-11-10T08:32:13Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Selfish Sparse RNN Training [13.165729746380816]
本稿では,1回のランでパラメータ数を固定したスパースRNNを,性能を損なうことなく訓練する手法を提案する。
我々はPenn TreeBankとWikitext-2の様々なデータセットを用いて最先端のスパーストレーニング結果を得る。
論文 参考訳(メタデータ) (2021-01-22T10:45:40Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。