論文の概要: A Temporally and Spatially Local Spike-based Backpropagation Algorithm
to Enable Training in Hardware
- arxiv url: http://arxiv.org/abs/2207.09755v1
- Date: Wed, 20 Jul 2022 08:57:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 12:37:43.937996
- Title: A Temporally and Spatially Local Spike-based Backpropagation Algorithm
to Enable Training in Hardware
- Title(参考訳): ハードウェアのトレーニングを可能にする時間的および空間的局所的なスパイクベースバックプロパゲーションアルゴリズム
- Authors: Anmol Biswas, Vivek Saraswat, Udayan Ganguly
- Abstract要約: Spiking Networks (SNN) は、分類タスクのためのハードウェア効率の良いアーキテクチャとして登場した。
非スパイキング人工ニューラルネットワーク(ANN)で使用される強力なバックプロパゲーション技術を採用する試みはいくつかある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) have emerged as a hardware efficient
architecture for classification tasks. The penalty of spikes-based encoding has
been the lack of a universal training mechanism performed entirely using
spikes. There have been several attempts to adopt the powerful backpropagation
(BP) technique used in non-spiking artificial neural networks (ANN): (1) SNNs
can be trained by externally computed numerical gradients. (2) A major
advancement toward native spike-based learning has been the use of approximate
Backpropagation using spike-time-dependent plasticity (STDP) with phased
forward/backward passes. However, the transfer of information between such
phases necessitates external memory and computational access. This is a
challenge for neuromorphic hardware implementations. In this paper, we propose
a stochastic SNN-based Back-Prop (SSNN-BP) algorithm that utilizes a composite
neuron to simultaneously compute the forward pass activations and backward pass
gradients explicitly with spikes. Although signed gradient values are a
challenge for spike-based representation, we tackle this by splitting the
gradient signal into positive and negative streams. The composite neuron
encodes information in the form of stochastic spike-trains and converts
Backpropagation weight updates into temporally and spatially local discrete
STDP-like spike coincidence updates compatible with hardware-friendly Resistive
Processing Units (RPUs). Furthermore, our method approaches BP ANN baseline
with sufficiently long spike-trains. Finally, we show that softmax
cross-entropy loss function can be implemented through inhibitory lateral
connections enforcing a Winner Take All (WTA) rule. Our SNN shows excellent
generalization through comparable performance to ANNs on the MNIST,
Fashion-MNIST and Extended MNIST datasets. Thus, SSNN-BP enables BP compatible
with purely spike-based neuromorphic hardware.
- Abstract(参考訳): spiking neural networks(snn)は、分類タスクのハードウェア効率のよいアーキテクチャとして登場した。
スパイクベースの符号化のペナルティは、スパイクを使った普遍的なトレーニング機構が欠如していることである。
非スパイキング人工ニューラルネットワーク(ANN)で使用される強力なバックプロパゲーション(BP)技術を採用する試みはいくつかある。
2) ネイティブスパイクベースの学習に向けての大きな進歩は, 段階的前方/後方通過を伴うスパイク時間依存塑性(STDP)を用いた近似バックプロパゲーションの利用である。
しかし、これらのフェーズ間の情報転送は外部メモリと計算アクセスを必要とする。
これはニューロモルフィックなハードウェア実装の課題です。
本稿では,合成ニューロンを用いた確率的SNNベースのバックプロップ(SSNN-BP)アルゴリズムを提案する。
符号付き勾配値はスパイクベース表現の課題であるが、勾配信号を正と負のストリームに分割することでこの問題に取り組む。
複合ニューロンは、確率的スパイクトレインの形で情報を符号化し、バックプロパゲーションウェイト更新を、ハードウェアフレンドリーなResistive Processing Units(RPUs)と互換性のある、時間的および空間的に離散STDP様スパイク同時更新に変換する。
さらに, BP ANNベースラインに十分に長いスパイクトレインでアプローチする。
最後に, ソフトマックスクロスエントロピー損失関数は, 勝者テイクオール(WTA)ルールを強制する抑制的側方接続によって実現可能であることを示す。
我々のSNNは、MNIST、Fashion-MNIST、Extended MNISTデータセット上のANNと同等の性能で優れた一般化を示す。
したがって、SSNN-BPは純粋にスパイクベースのニューロモルフィックハードウェアとのBP互換を可能にする。
関連論文リスト
- Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Desire Backpropagation: A Lightweight Training Algorithm for Multi-Layer
Spiking Neural Networks based on Spike-Timing-Dependent Plasticity [13.384228628766236]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワークの代替となる。
本研究は,隠されたニューロンを含むすべてのニューロンの所望のスパイク活性を導出する方法である欲求バックプロパゲーションを提示する。
我々はMNISTとFashion-MNISTを分類するために3層ネットワークを訓練し、それぞれ98.41%と87.56%の精度に達した。
論文 参考訳(メタデータ) (2022-11-10T08:32:13Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Spike time displacement based error backpropagation in convolutional
spiking neural networks [0.6193838300896449]
本稿では,STiDi-BPアルゴリズムを拡張し,より深く,畳み込み型アーキテクチャに応用する。
MNISTとFashion-MNISTの2つのベンチマークに基づく画像分類タスクの評価結果から,このアルゴリズムが深部SNNに適用可能であることを確認した。
後進パスで更新される実数値重みと、フィードフォワードプロセスで使用される2値重みと、その記号と2値重みの2つの重みを持つ畳み込みSNNを考える。
論文 参考訳(メタデータ) (2021-08-31T05:18:59Z) - Training Energy-Efficient Deep Spiking Neural Networks with Single-Spike
Hybrid Input Encoding [5.725845886457027]
スパイキングニューラルネットワーク(SNN)は、イベント駆動型ニューロモルフィックハードウェアにおいて高い計算効率を提供する。
SNNは、非効率な入力符号化とトレーニング技術により、高い推論遅延に悩まされる。
本稿では低遅延エネルギー効率SNNのためのトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-26T06:16:40Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Enabling Deep Spiking Neural Networks with Hybrid Conversion and Spike
Timing Dependent Backpropagation [10.972663738092063]
Spiking Neural Networks(SNN)は非同期離散イベント(スパイク)で動作する
本稿では,深層SNNのための計算効率のよいトレーニング手法を提案する。
我々は、SNN上のImageNetデータセットの65.19%のトップ1精度を250タイムステップで達成し、同様の精度で変換されたSNNに比べて10倍高速である。
論文 参考訳(メタデータ) (2020-05-04T19:30:43Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。