論文の概要: SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks
- arxiv url: http://arxiv.org/abs/2206.09449v1
- Date: Sun, 19 Jun 2022 16:52:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 15:29:42.212505
- Title: SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks
- Title(参考訳): SNN2ANN: ニューラルネットワークをスパイクするための高速かつメモリ効率のトレーニングフレームワーク
- Authors: Jianxiong Tang, Jianhuang Lai, Xiaohua Xie, Lingxiao Yang, Wei-Shi
Zheng
- Abstract要約: スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
- 参考スコア(独自算出の注目度): 117.56823277328803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks are efficient computation models for low-power
environments. Spike-based BP algorithms and ANN-to-SNN (ANN2SNN) conversions
are successful techniques for SNN training. Nevertheless, the spike-base BP
training is slow and requires large memory costs. Though ANN2NN provides a
low-cost way to train SNNs, it requires many inference steps to mimic the
well-trained ANN for good performance. In this paper, we propose a SNN-to-ANN
(SNN2ANN) framework to train the SNN in a fast and memory-efficient way. The
SNN2ANN consists of 2 components: a) a weight sharing architecture between ANN
and SNN and b) spiking mapping units. Firstly, the architecture trains the
weight-sharing parameters on the ANN branch, resulting in fast training and low
memory costs for SNN. Secondly, the spiking mapping units ensure that the
activation values of the ANN are the spiking features. As a result, the
classification error of the SNN can be optimized by training the ANN branch.
Besides, we design an adaptive threshold adjustment (ATA) algorithm to address
the noisy spike problem. Experiment results show that our SNN2ANN-based models
perform well on the benchmark datasets (CIFAR10, CIFAR100, and Tiny-ImageNet).
Moreover, the SNN2ANN can achieve comparable accuracy under 0.625x time steps,
0.377x training time, 0.27x GPU memory costs, and 0.33x spike activities of the
Spike-based BP model.
- Abstract(参考訳): スパイクニューラルネットワークは低消費電力環境における効率的な計算モデルである。
スパイクに基づくBPアルゴリズムとANN-to-SNN(ANN2SNN)変換はSNNトレーニングにおいて成功している。
それでも、スパイクベースBPトレーニングは遅く、メモリコストが大きい。
ANN2NNは、SNNを訓練するための低コストな方法を提供するが、優れたパフォーマンスを得るためには、よく訓練されたANNを模倣する多くの推論ステップが必要である。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
SNN2ANNは2つのコンポーネントから構成される。
a)ANNとSNNの間の重み共有アーキテクチャ
b) スパイキングマッピングユニット。
まず、アーキテクチャはANNブランチのウェイトシェアリングパラメータをトレーニングし、高速なトレーニングとSNNのメモリコストの低減を実現している。
第二に、スパイクマッピングユニットは、ANNの活性化値がスパイク特徴であることを保証する。
その結果、SNNの分類誤差は、ANNブランチをトレーニングすることで最適化できる。
さらに,ノイズスパイク問題に対処するため,適応しきい値調整(ATA)アルゴリズムを設計する。
実験の結果,SNN2ANNベースのモデルはベンチマークデータセット(CIFAR10,CIFAR100,Tiny-ImageNet)で良好に動作することがわかった。
さらに、SNN2ANNは、0.625倍のタイムステップ、0.377倍のトレーニング時間、0.27倍のGPUメモリコスト、およびSpikeベースのBPモデルの0.33倍のスパイクアクティビティで同等の精度を達成することができる。
関連論文リスト
- NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - Joint A-SNN: Joint Training of Artificial and Spiking Neural Networks
via Self-Distillation and Weight Factorization [12.1610509770913]
スパイクニューラルネットワーク(SNN)は、脳ニューロンのスパイク特性を模倣する。
我々は、ANNとSNNの合同トレーニングフレームワークを提案し、ANNはSNNの最適化をガイドできる。
我々の手法は、他の多くの最先端の訓練方法より一貫して優れています。
論文 参考訳(メタデータ) (2023-05-03T13:12:17Z) - LaSNN: Layer-wise ANN-to-SNN Distillation for Effective and Efficient
Training in Deep Spiking Neural Networks [7.0691139514420005]
スパイキングニューラルネットワーク(SNN)は、事象駆動機構のため、生物学的に現実的で、低消費電力で現実的に有望である。
トレーニングされたANNのパラメータを同じ構造を持つSNNにマッピングすることで、競合精度を得るための変換方式を提案する。
レイヤワイドANN-to-SNN知識蒸留(LaSNN)という新しいSNNトレーニングフレームワークが提案されている。
論文 参考訳(メタデータ) (2023-04-17T03:49:35Z) - Spikeformer: A Novel Architecture for Training High-Performance
Low-Latency Spiking Neural Network [6.8125324121155275]
静的データセットとニューロモルフィックデータセットの両方において,トランスフォーマーをベースとした新しいSNNであるSpikeformerを提案する。
注目すべきは、SpikeformerはImageNet上の他のSNNよりも大きなマージン(5%以上)で、DVS-GestureとImageNetでANNよりも3.1%、そして2.2%高いパフォーマンスである。
論文 参考訳(メタデータ) (2022-11-19T12:49:22Z) - A noise based novel strategy for faster SNN training [0.0]
スパイキングニューラルネットワーク(SNN)は、消費電力の低さと強力なバイオプロファイザビリティによって注目を集めている。
人工知能ニューラルネットワーク(ANN)-SNN変換とスパイクベースのバックプロパゲーション(BP)の2つの主要な手法には、それぞれ長所と短所がある。
本稿では,2つの手法の利点を組み合わせた新しいSNNトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-11-10T09:59:04Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Kernel Based Progressive Distillation for Adder Neural Networks [71.731127378807]
追加のみを含むAdder Neural Networks(ANN)は、エネルギー消費の少ないディープニューラルネットワークを新たに開発する方法を提供する。
すべての畳み込みフィルタを加算フィルタで置き換える場合、精度の低下がある。
本稿では,トレーニング可能なパラメータを増大させることなく,ANNの性能を向上するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-09-28T03:29:19Z) - Training Deep Spiking Neural Networks [0.0]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)とニューロモルフィックハードウェアは、エネルギー効率を桁違いに高める可能性がある。
CIFAR100およびImagenetteオブジェクト認識データセット上で、ResNet50アーキテクチャでSNNをトレーニングすることが可能であることを示す。
訓練されたSNNは、類似のANNと比較して精度が劣るが、数桁の推論時間ステップを必要とする。
論文 参考訳(メタデータ) (2020-06-08T09:47:05Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。