論文の概要: Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation
- arxiv url: http://arxiv.org/abs/2205.00459v2
- Date: Thu, 30 Mar 2023 07:12:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 18:28:27.282270
- Title: Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation
- Title(参考訳): スパイク表現の差分による高性能低レイテンシスパイクニューラルネットワークの訓練
- Authors: Qingyan Meng, Mingqing Xiao, Shen Yan, Yisen Wang, Zhouchen Lin,
Zhi-Quan Luo
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
- 参考スコア(独自算出の注目度): 70.75043144299168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Network (SNN) is a promising energy-efficient AI model when
implemented on neuromorphic hardware. However, it is a challenge to efficiently
train SNNs due to their non-differentiability. Most existing methods either
suffer from high latency (i.e., long simulation time steps), or cannot achieve
as high performance as Artificial Neural Networks (ANNs). In this paper, we
propose the Differentiation on Spike Representation (DSR) method, which could
achieve high performance that is competitive to ANNs yet with low latency.
First, we encode the spike trains into spike representation using (weighted)
firing rate coding. Based on the spike representation, we systematically derive
that the spiking dynamics with common neural models can be represented as some
sub-differentiable mapping. With this viewpoint, our proposed DSR method trains
SNNs through gradients of the mapping and avoids the common
non-differentiability problem in SNN training. Then we analyze the error when
representing the specific mapping with the forward computation of the SNN. To
reduce such error, we propose to train the spike threshold in each layer, and
to introduce a new hyperparameter for the neural models. With these components,
the DSR method can achieve state-of-the-art SNN performance with low latency on
both static and neuromorphic datasets, including CIFAR-10, CIFAR-100, ImageNet,
and DVS-CIFAR10.
- Abstract(参考訳): spiking neural network(snn)は、ニューロモルフィックなハードウェア上で実装される、エネルギー効率の高いaiモデルである。
しかし、その非微分性から効率的にsnsを訓練することは困難である。
既存の手法の多くは、高いレイテンシ(すなわち長いシミュレーション時間ステップ)に苦しむか、あるいは人工ニューラルネットワーク(anns)ほど高いパフォーマンスを達成できない。
本稿では、低レイテンシでANNと競合する高い性能を実現することができるスパイク表現法(DSR)の差分法を提案する。
まず、(重み付き)発射速度符号化を用いてスパイク列車をスパイク表現に符号化する。
スパイク表現に基づいて,共通の神経モデルを持つスパイクダイナミクスを部分微分可能写像として表現できることを体系的に導出する。
この観点から,提案手法はSNNの勾配を学習し,SNN訓練における一般的な非微分可能性問題を回避する。
次に、SNNの前方計算で特定マッピングを表現する際の誤差を解析する。
このような誤差を低減するために,各層におけるスパイクしきい値のトレーニングと,ニューラルモデルに対する新しいハイパーパラメータの導入を提案する。
これらのコンポーネントにより、DSR法は、CIFAR-10、CIFAR-100、ImageNet、DVS-CIFAR10を含む静的およびニューロモルフィックなデータセット上で、低レイテンシで最先端のSNN性能を実現することができる。
関連論文リスト
- Scaling Spike-driven Transformer with Efficient Spike Firing Approximation Training [17.193023656793464]
脳にインスパイアされたスパイキングニューラルネットワーク(SNN)の野望は、従来のニューラルネットワーク(ANN)に代わる低消費電力な代替手段になることである。
この作業は、SNNとANNのパフォーマンスギャップと、SNNの高トレーニングコストという、このビジョンを実現する上での2つの大きな課題に対処する。
本研究では,2次発火機構によるスパイクニューロンの固有の欠陥を同定し,整数学習とスパイク駆動推論を用いたスパイクフィリング近似(SFA)法を提案する。
論文 参考訳(メタデータ) (2024-11-25T03:05:41Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Real Spike: Learning Real-valued Spikes for Spiking Neural Networks [11.580346172925323]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、イベント駆動でエネルギー効率のよい特徴により、最近ますます注目を集めている。
本稿では,SNNがパラメータを効果的に削減し,推論効率を向上するウェイトシェアリング機構の恩恵を受けない可能性について論じる。
この仮定により、Real Spikeと名付けられたSNNのトレーニング推論デカップリング手法が提案されている。
論文 参考訳(メタデータ) (2022-10-13T02:45:50Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Training Energy-Efficient Deep Spiking Neural Networks with Single-Spike
Hybrid Input Encoding [5.725845886457027]
スパイキングニューラルネットワーク(SNN)は、イベント駆動型ニューロモルフィックハードウェアにおいて高い計算効率を提供する。
SNNは、非効率な入力符号化とトレーニング技術により、高い推論遅延に悩まされる。
本稿では低遅延エネルギー効率SNNのためのトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-26T06:16:40Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - Enabling Deep Spiking Neural Networks with Hybrid Conversion and Spike
Timing Dependent Backpropagation [10.972663738092063]
Spiking Neural Networks(SNN)は非同期離散イベント(スパイク)で動作する
本稿では,深層SNNのための計算効率のよいトレーニング手法を提案する。
我々は、SNN上のImageNetデータセットの65.19%のトップ1精度を250タイムステップで達成し、同様の精度で変換されたSNNに比べて10倍高速である。
論文 参考訳(メタデータ) (2020-05-04T19:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。