論文の概要: SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks
- arxiv url: http://arxiv.org/abs/2302.00232v1
- Date: Wed, 1 Feb 2023 04:22:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 13:35:20.057640
- Title: SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks
- Title(参考訳): spide: フィードバックスパイクニューラルネットワークのトレーニングのための純粋スパイクベース手法
- Authors: Mingqing Xiao, Qingyan Meng, Zongpeng Zhang, Yisen Wang, Zhouchen Lin
- Abstract要約: イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
- 参考スコア(独自算出の注目度): 56.35403810762512
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Spiking neural networks (SNNs) with event-based computation are promising
brain-inspired models for energy-efficient applications on neuromorphic
hardware. However, most supervised SNN training methods, such as conversion
from artificial neural networks or direct training with surrogate gradients,
require complex computation rather than spike-based operations of spiking
neurons during training. In this paper, we study spike-based implicit
differentiation on the equilibrium state (SPIDE) that extends the recently
proposed training method, implicit differentiation on the equilibrium state
(IDE), for supervised learning with purely spike-based computation, which
demonstrates the potential for energy-efficient training of SNNs. Specifically,
we introduce ternary spiking neuron couples and prove that implicit
differentiation can be solved by spikes based on this design, so the whole
training procedure, including both forward and backward passes, is made as
event-driven spike computation, and weights are updated locally with two-stage
average firing rates. Then we propose to modify the reset membrane potential to
reduce the approximation error of spikes. With these key components, we can
train SNNs with flexible structures in a small number of time steps and with
firing sparsity during training, and the theoretical estimation of energy costs
demonstrates the potential for high efficiency. Meanwhile, experiments show
that even with these constraints, our trained models can still achieve
competitive results on MNIST, CIFAR-10, CIFAR-100, and CIFAR10-DVS. Our code is
available at https://github.com/pkuxmq/SPIDE-FSNN.
- Abstract(参考訳): イベントベースの計算を伴うスパイキングニューラルネットワーク(snn)は、ニューロモルフィックハードウェア上のエネルギー効率の高いアプリケーションのための、脳にインスパイアされたモデルである。
しかしながら、ニューラルネットワークからの変換や代理勾配による直接訓練など、ほとんどの教師付きSNNトレーニング方法は、トレーニング中にスパイクベースのスパイク操作よりも複雑な計算を必要とする。
本稿では,最近提案する,snsのエネルギー効率向上の可能性を示す,純粋スパイクに基づく計算による教師付き学習のための,均衡状態の暗黙的微分(spike-based implicit differentiation on the equilibrium state, spide)について検討する。
具体的には、三元スパイクニューロン対を導入し、この設計に基づいて暗黙的な分化をスパイクによって解決できることを証明し、前方と後方の両方のパスを含むトレーニング手順全体をイベント駆動スパイク計算として行い、重みを2段階の平均発火率でローカルに更新する。
次に, スパイクの近似誤差を低減するために, リセット膜電位を変更することを提案する。
これらの重要な構成要素により、少数の時間ステップで柔軟な構造を持つSNNを訓練し、訓練中に発火間隔を訓練でき、エネルギーコストの理論的な推定は高効率の可能性を示す。
一方,これらの制約を伴っても,MNIST,CIFAR-10,CIFAR-100,CIFAR10-DVSの競争結果が得られることを示す。
私たちのコードはhttps://github.com/pkuxmq/SPIDE-FSNNで公開されています。
関連論文リスト
- Randomized Forward Mode Gradient for Spiking Neural Networks in Scientific Machine Learning [4.178826560825283]
スパイキングニューラルネットワーク(SNN)は、ディープニューラルネットワークの階層的学習能力とスパイクベースの計算のエネルギー効率を組み合わせた、機械学習における有望なアプローチである。
SNNの伝統的なエンドツーエンドトレーニングは、しばしばバックプロパゲーションに基づいており、重み更新はチェーンルールによって計算された勾配から導かれる。
この手法は, 生体適合性に限界があり, ニューロモルフィックハードウェアの非効率性のため, 課題に遭遇する。
本研究では,SNNの代替トレーニング手法を導入する。後方伝搬の代わりに,前方モード内での重量摂動手法を活用する。
論文 参考訳(メタデータ) (2024-11-11T15:20:54Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Accelerating spiking neural network training [1.6114012813668934]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、脳内の活動電位にインスパイアされた人工ネットワークの一種である。
本稿では,全ての逐次計算を排除し,ベクトル化された演算にのみ依存する単一スパイク/ニューラルオンSNNを直接訓練する手法を提案する。
提案手法は, 従来のSNNと比較して, 95.68 %以上のスパイク数削減を達成し, ニューロモルフィックコンピュータ上でのエネルギー要求を著しく低減する。
論文 参考訳(メタデータ) (2022-05-30T17:48:14Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Enabling Deep Spiking Neural Networks with Hybrid Conversion and Spike
Timing Dependent Backpropagation [10.972663738092063]
Spiking Neural Networks(SNN)は非同期離散イベント(スパイク)で動作する
本稿では,深層SNNのための計算効率のよいトレーニング手法を提案する。
我々は、SNN上のImageNetデータセットの65.19%のトップ1精度を250タイムステップで達成し、同様の精度で変換されたSNNに比べて10倍高速である。
論文 参考訳(メタデータ) (2020-05-04T19:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。