論文の概要: Skip-Connected Self-Recurrent Spiking Neural Networks with Joint
Intrinsic Parameter and Synaptic Weight Training
- arxiv url: http://arxiv.org/abs/2010.12691v1
- Date: Fri, 23 Oct 2020 22:27:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 21:33:42.396837
- Title: Skip-Connected Self-Recurrent Spiking Neural Networks with Joint
Intrinsic Parameter and Synaptic Weight Training
- Title(参考訳): 固有パラメータとシナプス重みトレーニングを併用したスキップ接続型自己回帰スパイクニューラルネットワーク
- Authors: Wenrui Zhang, Peng Li
- Abstract要約: 我々はSkip-Connected Self-Recurrent SNNs (ScSr-SNNs) と呼ばれる新しいタイプのRSNNを提案する。
ScSr-SNNは、最先端BP法で訓練された他のタイプのRSNNと比較して、パフォーマンスを最大2.55%向上させることができる。
- 参考スコア(独自算出の注目度): 14.992756670960008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an important class of spiking neural networks (SNNs), recurrent spiking
neural networks (RSNNs) possess great computational power and have been widely
used for processing sequential data like audio and text. However, most RSNNs
suffer from two problems. 1. Due to a lack of architectural guidance, random
recurrent connectivity is often adopted, which does not guarantee good
performance. 2. Training of RSNNs is in general challenging, bottlenecking
achievable model accuracy. To address these problems, we propose a new type of
RSNNs called Skip-Connected Self-Recurrent SNNs (ScSr-SNNs). Recurrence in
ScSr-SNNs is introduced in a stereotyped manner by adding self-recurrent
connections to spiking neurons, which implements local memory. The network
dynamics is enriched by skip connections between nonadjacent layers.
Constructed by simplified self-recurrent and skip connections, ScSr-SNNs are
able to realize recurrent behaviors similar to those of more complex RSNNs
while the error gradients can be more straightforwardly calculated due to the
mostly feedforward nature of the network. Moreover, we propose a new
backpropagation (BP) method called backpropagated intrinsic plasticity (BIP) to
further boost the performance of ScSr-SNNs by training intrinsic model
parameters. Unlike standard intrinsic plasticity rules that adjust the neuron's
intrinsic parameters according to neuronal activity, the proposed BIP methods
optimize intrinsic parameters based on the backpropagated error gradient of a
well-defined global loss function in addition to synaptic weight training.
Based upon challenging speech and neuromorphic speech datasets including
TI46-Alpha, TI46-Digits, and N-TIDIGITS, the proposed ScSr-SNNs can boost
performance by up to 2.55% compared with other types of RSNNs trained by
state-of-the-art BP methods.
- Abstract(参考訳): スパイクニューラルネットワーク(SNN)の重要なクラスとして、リカレントスパイクニューラルネットワーク(RSNN)は計算能力が高く、音声やテキストなどのシーケンシャルなデータ処理に広く利用されている。
しかし、ほとんどのRSNNは2つの問題を抱えている。
1.アーキテクチャ上のガイダンスの欠如により、ランダムなリカレント接続がしばしば採用され、優れた性能が保証されない。
2. RSNNの訓練は一般に困難であり、達成可能なモデルの精度をボトルネックにしている。
これらの問題に対処するために,ScSr-SNN(Skip-Connected Self-Recurrent SNN)と呼ばれる新しいタイプのRSNNを提案する。
ScSr-SNNにおける再帰は、局所記憶を実装したスパイキングニューロンに自己再帰接続を追加することでステレオタイプ化される。
ネットワークのダイナミクスは非隣接層間のスキップ接続によって強化される。
単純化された自己再帰接続とスキップ接続によって構成されたScSr-SNNは、より複雑なRSNNと同様の繰り返し挙動を実現できる一方、ネットワークの主にフィードフォワードの性質のため、エラー勾配はより簡単に計算できる。
さらに,本研究では,ScSr-SNNの性能を高めるために,BIP (backpropagated Intrinsic Plasticity) と呼ばれる新しいバックプロパゲーション手法を提案する。
ニューロンの内因性パラメータをニューロンの活動に応じて調節する標準的な内因性可塑性規則とは異なり、BIP法では、シナプス重量トレーニングに加えて、適切に定義された大域的損失関数のバックプロパゲートエラー勾配に基づいて内因性パラメータを最適化する。
TI46-Alpha、TI46-Digits、N-TIDIGITSなどの挑戦的な音声およびニューロモルフィック音声データセットに基づいて、提案されたScSr-SNNは、最先端BP法で訓練された他のタイプのRSNNと比較して、パフォーマンスを最大2.55%向上させることができる。
関連論文リスト
- A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Multi-Level Firing with Spiking DS-ResNet: Enabling Better and Deeper
Directly-Trained Spiking Neural Networks [19.490903216456758]
スパイキングニューラルネットワーク(SNN)は、非同期離散性とスパース特性を持つニューラルネットワークである。
既存のスパイキング抑制残差ネットワーク(Spiking DS-ResNet)に基づくマルチレベル焼成(MLF)手法を提案する。
論文 参考訳(メタデータ) (2022-10-12T16:39:46Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Self-Supervised Learning of Event-Based Optical Flow with Spiking Neural
Networks [3.7384509727711923]
ニューロモルフィックコンピューティングの大きな課題は、従来の人工ニューラルネットワーク(ANN)の学習アルゴリズムがスパイクニューラルネットワーク(SNN)に直接転送されないことである。
本稿では,イベントベースカメラ入力からの光フロー推定における自己教師型学習問題に着目した。
提案するANNとSNNの性能は,自己教師型で訓練された現在の最先端のANNと同等であることを示す。
論文 参考訳(メタデータ) (2021-06-03T14:03:41Z) - BackEISNN: A Deep Spiking Neural Network with Adaptive Self-Feedback and
Balanced Excitatory-Inhibitory Neurons [8.956708722109415]
スパイクニューラルネットワーク(SNN)は離散スパイクを通して情報を伝達し、空間時間情報を処理するのによく機能する。
適応型自己フィードバックと平衡興奮性および抑制性ニューロン(BackEISNN)を用いた深部スパイクニューラルネットワークを提案する。
MNIST、FashionMNIST、N-MNISTのデータセットに対して、我々のモデルは最先端の性能を達成した。
論文 参考訳(メタデータ) (2021-05-27T08:38:31Z) - Optimal Conversion of Conventional Artificial Neural Networks to Spiking
Neural Networks [0.0]
spiking neural networks (snns) は生物学に触発されたニューラルネットワーク (anns) である。
しきい値バランスとソフトリセット機構を組み合わせることで、重みをターゲットSNNに転送する新しい戦略パイプラインを提案する。
提案手法は,SNNのエネルギーとメモリの制限によるサポートを向上し,組込みプラットフォームに組み込むことが期待できる。
論文 参考訳(メタデータ) (2021-02-28T12:04:22Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。