論文の概要: Spikeformer: A Novel Architecture for Training High-Performance
Low-Latency Spiking Neural Network
- arxiv url: http://arxiv.org/abs/2211.10686v1
- Date: Sat, 19 Nov 2022 12:49:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 17:34:56.847594
- Title: Spikeformer: A Novel Architecture for Training High-Performance
Low-Latency Spiking Neural Network
- Title(参考訳): Spikeformer: 高性能低レイテンシスパイクニューラルネットワークのトレーニングのための新しいアーキテクチャ
- Authors: Yudong Li, Yunlin Lei, Xu Yang
- Abstract要約: 静的データセットとニューロモルフィックデータセットの両方において,トランスフォーマーをベースとした新しいSNNであるSpikeformerを提案する。
注目すべきは、SpikeformerはImageNet上の他のSNNよりも大きなマージン(5%以上)で、DVS-GestureとImageNetでANNよりも3.1%、そして2.2%高いパフォーマンスである。
- 参考スコア(独自算出の注目度): 6.8125324121155275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) have made great progress on both performance
and efficiency over the last few years,but their unique working pattern makes
it hard to train a high-performance low-latency SNN.Thus the development of
SNNs still lags behind traditional artificial neural networks (ANNs).To
compensate this gap,many extraordinary works have been
proposed.Nevertheless,these works are mainly based on the same kind of network
structure (i.e.CNN) and their performance is worse than their ANN
counterparts,which limits the applications of SNNs.To this end,we propose a
novel Transformer-based SNN,termed "Spikeformer",which outperforms its ANN
counterpart on both static dataset and neuromorphic dataset and may be an
alternative architecture to CNN for training high-performance SNNs.First,to
deal with the problem of "data hungry" and the unstable training period
exhibited in the vanilla model,we design the Convolutional Tokenizer (CT)
module,which improves the accuracy of the original model on DVS-Gesture by more
than 16%.Besides,in order to better incorporate the attention mechanism inside
Transformer and the spatio-temporal information inherent to SNN,we adopt
spatio-temporal attention (STA) instead of spatial-wise or temporal-wise
attention.With our proposed method,we achieve competitive or state-of-the-art
(SOTA) SNN performance on DVS-CIFAR10,DVS-Gesture,and ImageNet datasets with
the least simulation time steps (i.e.low latency).Remarkably,our Spikeformer
outperforms other SNNs on ImageNet by a large margin (i.e.more than 5%) and
even outperforms its ANN counterpart by 3.1% and 2.2% on DVS-Gesture and
ImageNet respectively,indicating that Spikeformer is a promising architecture
for training large-scale SNNs and may be more suitable for SNNs compared to
CNN.We believe that this work shall keep the development of SNNs in step with
ANNs as much as possible.Code will be available.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、ここ数年、パフォーマンスと効率の両方に大きな進歩を遂げてきたが、そのユニークな動作パターンは、高性能な低レイテンシSNNのトレーニングを困難にしている。
To compensate this gap,many extraordinary works have been proposed.Nevertheless,these works are mainly based on the same kind of network structure (i.e.CNN) and their performance is worse than their ANN counterparts,which limits the applications of SNNs.To this end,we propose a novel Transformer-based SNN,termed "Spikeformer",which outperforms its ANN counterpart on both static dataset and neuromorphic dataset and may be an alternative architecture to CNN for training high-performance SNNs.First,to deal with the problem of "data hungry" and the unstable training period exhibited in the vanilla model,we design the Convolutional Tokenizer (CT) module,which improves the accuracy of the original model on DVS-Gesture by more than 16%.
さらに、Transformer内部の注意機構とSNN固有の時空間情報をよりよく組み込むため、空間的・時間的注意ではなく時空間的注意(STA)を採用し、DVS-CIFAR10、DVS-Gesture、ImageNetデータセット上での競合または最先端(SOTA)SNNのパフォーマンスを最小のシミュレーション時間ステップ(低レイテンシ)で達成する。
注目すべきなのは、SpikeformerはImageNet上の他のSNNを大きなマージン(すなわち5%以上)で上回り、DVS-GestureとImageNetでそれぞれ3.1%と2.2%を上回り、Spikeformerは大規模SNNをトレーニングするための有望なアーキテクチャであり、CNNと比較してSNNに適している可能性があることを示している。
関連論文リスト
- NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - Optimal ANN-SNN Conversion for High-accuracy and Ultra-low-latency
Spiking Neural Networks [22.532709609646066]
スパイキングニューラルネットワーク(SNN)は、低消費電力とニューロモルフィックハードウェアにおける高速推論の特徴的な特性により、大きな注目を集めている。
ディープSNNを得る最も効果的な方法として、ANN-SNN変換は大規模データセット上でのANNと同等のパフォーマンスを達成した。
本稿では,ANN-SNN変換誤差を理論的に解析し,SNNの活性化関数を推定する。
SNNとANNの変換誤差はゼロであり、高精度で超低レイテンシのSNNを実現することができることを示す。
論文 参考訳(メタデータ) (2023-03-08T03:04:53Z) - Optimising Event-Driven Spiking Neural Network with Regularisation and
Cutoff [33.91830001268308]
スパイキングニューラルネットワーク(SNN)は、計算効率を有望に改善する。
現在のSNNトレーニング手法は、主に固定時間ステップアプローチを採用している。
本稿では,効率的な推論を実現するために,推論中にいつでもSNNを終了できるSNNの遮断を検討することを提案する。
論文 参考訳(メタデータ) (2023-01-23T16:14:09Z) - SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks [117.56823277328803]
スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
論文 参考訳(メタデータ) (2022-06-19T16:52:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Rethinking Pretraining as a Bridge from ANNs to SNNs [13.984523794353477]
スパイキングニューラルネットワーク(SNN)は、特有の特徴を持つ脳にインスパイアされた典型的なモデルとして知られている。
高い精度のモデルを得る方法は、常にSNNの分野における主要な課題である。
論文 参考訳(メタデータ) (2022-03-02T14:59:57Z) - Beyond Classification: Directly Training Spiking Neural Networks for
Semantic Segmentation [5.800785186389827]
ニューラルネットワークの低消費電力代替としてスパイキングニューラルネットワーク(SNN)が登場している。
本稿では,ニューロンをスパイクしたセマンティックセグメンテーションネットワークの分類を超えて,SNNの応用について検討する。
論文 参考訳(メタデータ) (2021-10-14T21:53:03Z) - Fully Spiking Variational Autoencoder [66.58310094608002]
スパイキングニューラルネットワーク(SNN)は、超高速で超低エネルギー消費のニューロモルフィックデバイス上で動作することができる。
本研究では,SNNを用いた可変オートエンコーダ(VAE)を構築し,画像生成を実現する。
論文 参考訳(メタデータ) (2021-09-26T06:10:14Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。