論文の概要: Enabling Deep Spiking Neural Networks with Hybrid Conversion and Spike
Timing Dependent Backpropagation
- arxiv url: http://arxiv.org/abs/2005.01807v1
- Date: Mon, 4 May 2020 19:30:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 00:04:10.982110
- Title: Enabling Deep Spiking Neural Networks with Hybrid Conversion and Spike
Timing Dependent Backpropagation
- Title(参考訳): ハイブリッド変換とスパイクタイミング依存バックプロパゲーションによるディープスパイクニューラルネットワークの実現
- Authors: Nitin Rathi, Gopalakrishnan Srinivasan, Priyadarshini Panda, Kaushik
Roy
- Abstract要約: Spiking Neural Networks(SNN)は非同期離散イベント(スパイク)で動作する
本稿では,深層SNNのための計算効率のよいトレーニング手法を提案する。
我々は、SNN上のImageNetデータセットの65.19%のトップ1精度を250タイムステップで達成し、同様の精度で変換されたSNNに比べて10倍高速である。
- 参考スコア(独自算出の注目度): 10.972663738092063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) operate with asynchronous discrete events (or
spikes) which can potentially lead to higher energy-efficiency in neuromorphic
hardware implementations. Many works have shown that an SNN for inference can
be formed by copying the weights from a trained Artificial Neural Network (ANN)
and setting the firing threshold for each layer as the maximum input received
in that layer. These type of converted SNNs require a large number of time
steps to achieve competitive accuracy which diminishes the energy savings. The
number of time steps can be reduced by training SNNs with spike-based
backpropagation from scratch, but that is computationally expensive and slow.
To address these challenges, we present a computationally-efficient training
technique for deep SNNs. We propose a hybrid training methodology: 1) take a
converted SNN and use its weights and thresholds as an initialization step for
spike-based backpropagation, and 2) perform incremental spike-timing dependent
backpropagation (STDB) on this carefully initialized network to obtain an SNN
that converges within few epochs and requires fewer time steps for input
processing. STDB is performed with a novel surrogate gradient function defined
using neuron's spike time. The proposed training methodology converges in less
than 20 epochs of spike-based backpropagation for most standard image
classification datasets, thereby greatly reducing the training complexity
compared to training SNNs from scratch. We perform experiments on CIFAR-10,
CIFAR-100, and ImageNet datasets for both VGG and ResNet architectures. We
achieve top-1 accuracy of 65.19% for ImageNet dataset on SNN with 250 time
steps, which is 10X faster compared to converted SNNs with similar accuracy.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は非同期離散イベント(あるいはスパイク)で動作し、ニューロモルフィックハードウェア実装のエネルギー効率を高める可能性がある。
多くの研究は、トレーニングされたニューラルネットワーク(ann)から重みをコピーし、その層で受信される最大入力として各層に対する発射閾値を設定することで、推論のためのsnを形成することができることを示した。
これらの変換SNNは、競争精度を達成するために多くの時間ステップを必要とするため、省エネ性が低下する。
スパイクベースのバックプロパゲーションをゼロからトレーニングすることで、タイムステップの数を削減できるが、これは計算コストが高く、遅い。
これらの課題に対処するために,深層SNNのための計算効率の高いトレーニング手法を提案する。
ハイブリッドトレーニング手法を提案する。
1)変換SNNを用いて、スパイクベースのバックプロパゲーションの初期化ステップとして重量と閾値を使用する。
2) インクリメンタルスパイクタイピング依存バックプロパゲーション(STDB)を慎重に初期化したネットワーク上で実行し, わずかなエポック内に収束し, 入力処理に要する時間ステップを少なくするSNNを得る。
STDBはニューロンのスパイク時間を用いて定義された新しい代理勾配関数を用いて実行される。
提案手法は,標準画像分類データセットにおけるスパイクベースバックプロパゲーションの20歳未満に収束し,snsをスクラッチからトレーニングするよりもトレーニングの複雑さを著しく低減する。
我々は,CIFAR-10,CIFAR-100,およびVGGおよびResNetアーキテクチャ用のImageNetデータセットについて実験を行った。
我々は、SNN上のImageNetデータセットの65.19%のトップ1精度を250タイムステップで達成し、同様の精度で変換されたSNNに比べて10倍高速である。
関連論文リスト
- Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - TT-SNN: Tensor Train Decomposition for Efficient Spiking Neural Network
Training [27.565726483503838]
スパイキングニューラルネットワーク(TT-SNN)の列車分解について紹介する。
TT-SNNはトレーニング可能な重量分解によってモデルサイズを削減し、ストレージ、FLOP、レイテンシーを削減した。
また,典型的な逐次テンソル計算の代替として並列計算を提案する。
論文 参考訳(メタデータ) (2024-01-15T23:08:19Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Rethinking Pretraining as a Bridge from ANNs to SNNs [13.984523794353477]
スパイキングニューラルネットワーク(SNN)は、特有の特徴を持つ脳にインスパイアされた典型的なモデルとして知られている。
高い精度のモデルを得る方法は、常にSNNの分野における主要な課題である。
論文 参考訳(メタデータ) (2022-03-02T14:59:57Z) - Can Deep Neural Networks be Converted to Ultra Low-Latency Spiking
Neural Networks? [3.2108350580418166]
スパイクニューラルネットワーク(SNN)は、時間とともに分散されたバイナリスパイクを介して動作する。
SNNのためのSOTAトレーニング戦略は、非スパイキングディープニューラルネットワーク(DNN)からの変換を伴う
そこで本研究では,DNNと変換SNNの誤差を最小限に抑えながら,これらの分布を正確にキャプチャする新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:47:45Z) - Training Energy-Efficient Deep Spiking Neural Networks with Single-Spike
Hybrid Input Encoding [5.725845886457027]
スパイキングニューラルネットワーク(SNN)は、イベント駆動型ニューロモルフィックハードウェアにおいて高い計算効率を提供する。
SNNは、非効率な入力符号化とトレーニング技術により、高い推論遅延に悩まされる。
本稿では低遅延エネルギー効率SNNのためのトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-26T06:16:40Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。