論文の概要: Accelerating SNN Training with Stochastic Parallelizable Spiking Neurons
- arxiv url: http://arxiv.org/abs/2306.12666v1
- Date: Thu, 22 Jun 2023 04:25:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 15:23:48.177258
- Title: Accelerating SNN Training with Stochastic Parallelizable Spiking Neurons
- Title(参考訳): 確率的並列化スパイクニューロンによるsn学習の促進
- Authors: Sidi Yaya Arnaud Yarga, Sean U. N. Wood
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、特にニューロモルフィックハードウェアにおいて、少ないエネルギーを使用しながら特徴を学習することができる。
深層学習において最も広く用いられるニューロンは、時間と火災(LIF)ニューロンである。
- 参考スコア(独自算出の注目度): 1.7056768055368383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNN) are able to learn spatiotemporal features while
using less energy, especially on neuromorphic hardware. The most widely used
spiking neuron in deep learning is the Leaky Integrate and Fire (LIF) neuron.
LIF neurons operate sequentially, however, since the computation of state at
time t relies on the state at time t-1 being computed. This limitation is
shared with Recurrent Neural Networks (RNN) and results in slow training on
Graphics Processing Units (GPU). In this paper, we propose the Stochastic
Parallelizable Spiking Neuron (SPSN) to overcome the sequential training
limitation of LIF neurons. By separating the linear integration component from
the non-linear spiking function, SPSN can be run in parallel over time. The
proposed approach results in performance comparable with the state-of-the-art
for feedforward neural networks on the Spiking Heidelberg Digits (SHD) dataset,
outperforming LIF networks while training 10 times faster and outperforming
non-spiking networks with the same network architecture. For longer input
sequences of 10000 time-steps, we show that the proposed approach results in
4000 times faster training, thus demonstrating the potential of the proposed
approach to accelerate SNN training for very large datasets.
- Abstract(参考訳): spiking neural networks(snn)は、特にニューロモルフィックなハードウェアにおいて、少ないエネルギーで時空間的特徴を学習することができる。
深層学習において最も広く使われているスパイクニューロンはLeaky Integrate and Fire(LIF)ニューロンである。
しかし LIF ニューロンは、t 時の状態の計算は t-1 時の状態の計算に依存するため、順次動作する。
この制限はrecurrent neural networks(rnn)と共有され、gpu(graphics processing unit)でのトレーニングが遅くなる。
本稿では、LIFニューロンの逐次訓練制限を克服するために、SPSN(Stochastic Parallelizable Spiking Neuron)を提案する。
線形積分成分を非線形スパイク関数から分離することにより、SPSNは時間とともに並列に実行できる。
提案手法は、Spking Heidelberg Digits(SHD)データセット上のフィードフォワードニューラルネットワークの最先端技術と同等のパフォーマンスを示し、LIFネットワークよりも10倍高速にトレーニングし、同じネットワークアーキテクチャで非スパイクネットワークより優れたパフォーマンスを実現する。
10000時間ステップの長い入力シーケンスについて,提案手法が4000倍高速トレーニングを実現することを示し,大規模データセットのsnトレーニングを高速化するための提案手法の可能性を示した。
関連論文リスト
- Time-independent Spiking Neuron via Membrane Potential Estimation for Efficient Spiking Neural Networks [4.142699381024752]
スパイキングニューラルネットワーク(SNN)の計算的非効率性は、主に膜電位の逐次更新によるものである。
スパイキングニューロンの並列計算法である膜電位推定並列スパイキングニューロン(MPE-PSN)を提案する。
提案手法では,特に高次ニューロン密度条件下での計算効率の向上が期待できる。
論文 参考訳(メタデータ) (2024-09-08T05:14:22Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Accelerating spiking neural network training [1.6114012813668934]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、脳内の活動電位にインスパイアされた人工ネットワークの一種である。
本稿では,全ての逐次計算を排除し,ベクトル化された演算にのみ依存する単一スパイク/ニューラルオンSNNを直接訓練する手法を提案する。
提案手法は, 従来のSNNと比較して, 95.68 %以上のスパイク数削減を達成し, ニューロモルフィックコンピュータ上でのエネルギー要求を著しく低減する。
論文 参考訳(メタデータ) (2022-05-30T17:48:14Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Spiking Neural Networks with Improved Inherent Recurrence Dynamics for
Sequential Learning [6.417011237981518]
漏れた統合と発火(LIF)ニューロンを持つニューラルネットワーク(SNN)は、イベント駆動方式で操作できる。
我々は,SNNを逐次的なタスクのために訓練し,LIFニューロンのネットワークへの修正を提案する。
そこで我々は,提案するSNNのトレーニング手法を開発し,本質的な再帰ダイナミクスを改良した。
論文 参考訳(メタデータ) (2021-09-04T17:13:28Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Tensor train decompositions on recurrent networks [60.334946204107446]
マトリックス製品状態(MPS)テンソルトレインは、ストレージの削減と推論時の計算時間の観点から、MPOよりも魅力的な特徴を持つ。
理論解析により,MPSテンソル列車はLSTMネットワーク圧縮の最前線に置かれるべきであることを示す。
論文 参考訳(メタデータ) (2020-06-09T18:25:39Z) - Effective and Efficient Computation with Multiple-timescale Spiking
Recurrent Neural Networks [0.9790524827475205]
本稿では,新しいタイプの適応スパイクリカレントニューラルネットワーク(SRNN)が,最先端の性能を実現する方法を示す。
我々は、従来のRNNよりも難しいタスクにおいて、SRNNの100倍のエネルギー改善を計算します。
論文 参考訳(メタデータ) (2020-05-24T01:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。