論文の概要: Spike time displacement based error backpropagation in convolutional
spiking neural networks
- arxiv url: http://arxiv.org/abs/2108.13621v1
- Date: Tue, 31 Aug 2021 05:18:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-02 01:54:17.255689
- Title: Spike time displacement based error backpropagation in convolutional
spiking neural networks
- Title(参考訳): 畳み込みスパイクニューラルネットワークにおけるスパイク時間変位に基づく誤差逆伝播
- Authors: Maryam Mirsadeghi, Majid Shalchian, Saeed Reza Kheradpisheh,
Timoth\'ee Masquelier
- Abstract要約: 本稿では,STiDi-BPアルゴリズムを拡張し,より深く,畳み込み型アーキテクチャに応用する。
MNISTとFashion-MNISTの2つのベンチマークに基づく画像分類タスクの評価結果から,このアルゴリズムが深部SNNに適用可能であることを確認した。
後進パスで更新される実数値重みと、フィードフォワードプロセスで使用される2値重みと、その記号と2値重みの2つの重みを持つ畳み込みSNNを考える。
- 参考スコア(独自算出の注目度): 0.6193838300896449
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We recently proposed the STiDi-BP algorithm, which avoids backward recursive
gradient computation, for training multi-layer spiking neural networks (SNNs)
with single-spike-based temporal coding. The algorithm employs a linear
approximation to compute the derivative of the spike latency with respect to
the membrane potential and it uses spiking neurons with piecewise linear
postsynaptic potential to reduce the computational cost and the complexity of
neural processing. In this paper, we extend the STiDi-BP algorithm to employ it
in deeper and convolutional architectures. The evaluation results on the image
classification task based on two popular benchmarks, MNIST and Fashion-MNIST
datasets with the accuracies of respectively 99.2% and 92.8%, confirm that this
algorithm has been applicable in deep SNNs. Another issue we consider is the
reduction of memory storage and computational cost. To do so, we consider a
convolutional SNN (CSNN) with two sets of weights: real-valued weights that are
updated in the backward pass and their signs, binary weights, that are employed
in the feedforward process. We evaluate the binary CSNN on two datasets of
MNIST and Fashion-MNIST and obtain acceptable performance with a negligible
accuracy drop with respect to real-valued weights (about $0.6%$ and $0.8%$
drops, respectively).
- Abstract(参考訳): 我々は最近,シングルスパイクに基づく時間符号化による多層スパイクニューラルネットワーク(snns)の学習のために,逆回帰勾配計算を回避したstydi-bpアルゴリズムを提案した。
このアルゴリズムは、膜電位に対するスパイク遅延の微分を計算するために線形近似を用いており、神経処理の計算コストと複雑さを低減するために、断片的に線形なシナプス電位を持つスパイクニューロンを用いる。
本稿では,STiDi-BPアルゴリズムを拡張し,より深く,畳み込み型アーキテクチャに応用する。
MNISTとFashion-MNISTの2つのベンチマークに基づく画像分類タスクの評価結果は、それぞれ99.2%と92.8%の精度で、このアルゴリズムが深層SNNに適用されたことを確認した。
もうひとつの問題は、メモリストレージの削減と計算コストの削減です。
そこで我々は,後進パスで更新される実値重みと,フィードフォワードプロセスで使用される符号,バイナリ重みの2つの重みを持つ畳み込みSNN(CSNN)を考える。
我々は,MNIST と Fashion-MNIST の2つのデータセット上でバイナリCSNNを評価し,実数値の重み(それぞれ約0.6% と$0.8% のドロップ)に対して無視できる精度で許容できる性能を得た。
関連論文リスト
- FTBC: Forward Temporal Bias Correction for Optimizing ANN-SNN Conversion [16.9748086865693]
Spiking Neural Networks(SNN)は、ニューラルネットワーク(ANN)と比較して、エネルギー効率の高いコンピューティングのための有望な道を提供する
本稿では,計算オーバーヘッドを伴わずに変換精度を向上させることを目的とした,FTBC(Forward Temporal Bias)技術を紹介する。
さらに,前方通過のみの時間偏差を求めるアルゴリズムを提案し,逆伝播の計算負担を軽減した。
論文 参考訳(メタデータ) (2024-03-27T09:25:20Z) - TT-SNN: Tensor Train Decomposition for Efficient Spiking Neural Network
Training [27.565726483503838]
スパイキングニューラルネットワーク(TT-SNN)の列車分解について紹介する。
TT-SNNはトレーニング可能な重量分解によってモデルサイズを削減し、ストレージ、FLOP、レイテンシーを削減した。
また,典型的な逐次テンソル計算の代替として並列計算を提案する。
論文 参考訳(メタデータ) (2024-01-15T23:08:19Z) - MST-compression: Compressing and Accelerating Binary Neural Networks
with Minimum Spanning Tree [21.15961593182111]
エッジコンピューティングデバイスにおける計算コストとメモリストレージを削減するために、バイナリニューラルネットワーク(BNN)が広く採用されている。
しかしながら、ニューラルネットワークが精度を向上し、実用的な要件を満たすためにより広く、より深くなるにつれて、計算の負担はバイナリバージョンにおいても大きな課題である。
本稿では,BNNの圧縮と高速化を学習する,最小スパンニングツリー(MST)圧縮法を提案する。
論文 参考訳(メタデータ) (2023-08-26T02:42:12Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - A temporally and spatially local spike-based backpropagation algorithm
to enable training in hardware [0.0]
Spiking Neural Networks (SNN)は、分類タスクのためのハードウェア効率の良いアーキテクチャとして登場した。
非スパイキング人工ニューラルネットワーク(ANN)で使用される強力なバックプロパゲーション(BP)技術を採用する試みはいくつかある。
論文 参考訳(メタデータ) (2022-07-20T08:57:53Z) - Low-bit Quantization of Recurrent Neural Network Language Models Using
Alternating Direction Methods of Multipliers [67.688697838109]
本稿では、乗算器の交互方向法(ADMM)を用いて、スクラッチから量子化RNNLMを訓練する新しい手法を提案する。
2つのタスクの実験から、提案されたADMM量子化は、完全な精度ベースライン RNNLM で最大31倍のモデルサイズ圧縮係数を達成したことが示唆された。
論文 参考訳(メタデータ) (2021-11-29T09:30:06Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Enabling Deep Spiking Neural Networks with Hybrid Conversion and Spike
Timing Dependent Backpropagation [10.972663738092063]
Spiking Neural Networks(SNN)は非同期離散イベント(スパイク)で動作する
本稿では,深層SNNのための計算効率のよいトレーニング手法を提案する。
我々は、SNN上のImageNetデータセットの65.19%のトップ1精度を250タイムステップで達成し、同様の精度で変換されたSNNに比べて10倍高速である。
論文 参考訳(メタデータ) (2020-05-04T19:30:43Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。