論文の概要: Training Deep Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2006.04436v1
- Date: Mon, 8 Jun 2020 09:47:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 00:15:20.594472
- Title: Training Deep Spiking Neural Networks
- Title(参考訳): ディープスパイクニューラルネットワークの訓練
- Authors: Eimantas Ledinauskas (1), Julius Ruseckas (1), Alfonsas Jur\v{s}\.enas
(1), Giedrius Bura\v{c}as (2) ((1) Baltic Institute of Advanced Technology,
Lithuania, (2) SRI International, USA)
- Abstract要約: 脳にインスパイアされたスパイクニューラルネットワーク(SNN)とニューロモルフィックハードウェアは、エネルギー効率を桁違いに高める可能性がある。
CIFAR100およびImagenetteオブジェクト認識データセット上で、ResNet50アーキテクチャでSNNをトレーニングすることが可能であることを示す。
訓練されたSNNは、類似のANNと比較して精度が劣るが、数桁の推論時間ステップを必要とする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computation using brain-inspired spiking neural networks (SNNs) with
neuromorphic hardware may offer orders of magnitude higher energy efficiency
compared to the current analog neural networks (ANNs). Unfortunately, training
SNNs with the same number of layers as state of the art ANNs remains a
challenge. To our knowledge the only method which is successful in this regard
is supervised training of ANN and then converting it to SNN. In this work we
directly train deep SNNs using backpropagation with surrogate gradient and find
that due to implicitly recurrent nature of feed forward SNN's the exploding or
vanishing gradient problem severely hinders their training. We show that this
problem can be solved by tuning the surrogate gradient function. We also
propose using batch normalization from ANN literature on input currents of SNN
neurons. Using these improvements we show that is is possible to train SNN with
ResNet50 architecture on CIFAR100 and Imagenette object recognition datasets.
The trained SNN falls behind in accuracy compared to analogous ANN but requires
several orders of magnitude less inference time steps (as low as 10) to reach
good accuracy compared to SNNs obtained by conversion from ANN which require on
the order of 1000 time steps.
- Abstract(参考訳): 脳にインスパイアされたスパイクニューラルネットワーク(snn)を用いた計算は、現在のアナログニューラルネットワーク(anns)よりも1桁高いエネルギー効率をもたらす可能性がある。
残念なことに、最先端のANNと同じレイヤ数でSNNをトレーニングすることは、依然として課題である。
我々の知る限り、この点で成功した唯一の方法は、ANNの指導的訓練を行い、それをSNNに変換することである。
本研究では,サロゲート勾配によるバックプロパゲーションを用いて深部SNNを直接訓練し,フィードフォワードの暗黙的に繰り返される性質により,爆発的あるいは消滅的な勾配問題によりトレーニングが著しく妨げられることを明らかにする。
代用勾配関数をチューニングすることでこの問題を解くことができることを示す。
また,SNNニューロンの入力電流に対するANN文献からのバッチ正規化も提案する。
これらの改善により、cifar100とimagenetteオブジェクト認識データセット上でresnet50アーキテクチャでsnnをトレーニングできることが示される。
トレーニングされたSNNは、類似のANNと比較して精度が劣るが、1000タイムステップの順序を必要とするANNからの変換によって得られたSNNと比較して、ある程度の推論時間ステップ(10以下)で精度が向上する。
関連論文リスト
- LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - Joint A-SNN: Joint Training of Artificial and Spiking Neural Networks
via Self-Distillation and Weight Factorization [12.1610509770913]
スパイクニューラルネットワーク(SNN)は、脳ニューロンのスパイク特性を模倣する。
我々は、ANNとSNNの合同トレーニングフレームワークを提案し、ANNはSNNの最適化をガイドできる。
我々の手法は、他の多くの最先端の訓練方法より一貫して優れています。
論文 参考訳(メタデータ) (2023-05-03T13:12:17Z) - LaSNN: Layer-wise ANN-to-SNN Distillation for Effective and Efficient
Training in Deep Spiking Neural Networks [7.0691139514420005]
スパイキングニューラルネットワーク(SNN)は、事象駆動機構のため、生物学的に現実的で、低消費電力で現実的に有望である。
トレーニングされたANNのパラメータを同じ構造を持つSNNにマッピングすることで、競合精度を得るための変換方式を提案する。
レイヤワイドANN-to-SNN知識蒸留(LaSNN)という新しいSNNトレーニングフレームワークが提案されている。
論文 参考訳(メタデータ) (2023-04-17T03:49:35Z) - Optimal ANN-SNN Conversion for High-accuracy and Ultra-low-latency
Spiking Neural Networks [22.532709609646066]
スパイキングニューラルネットワーク(SNN)は、低消費電力とニューロモルフィックハードウェアにおける高速推論の特徴的な特性により、大きな注目を集めている。
ディープSNNを得る最も効果的な方法として、ANN-SNN変換は大規模データセット上でのANNと同等のパフォーマンスを達成した。
本稿では,ANN-SNN変換誤差を理論的に解析し,SNNの活性化関数を推定する。
SNNとANNの変換誤差はゼロであり、高精度で超低レイテンシのSNNを実現することができることを示す。
論文 参考訳(メタデータ) (2023-03-08T03:04:53Z) - SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks [117.56823277328803]
スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
論文 参考訳(メタデータ) (2022-06-19T16:52:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Spiking neural networks trained via proxy [0.696125353550498]
本稿では,従来のニューラルネットワーク(ANN)を代用として,スパイクニューラルネットワーク(SNN)を訓練するための新しい学習アルゴリズムを提案する。
SNNとANNの2つのネットワークをそれぞれ、同じネットワークアーキテクチャと共有シナプス重みを持つIF(Integration-and-fire)とReLU(ReLU)の2つに分けた。
IFニューロンにReLUの近似としてレートコーディングを仮定することにより、SNNの最終出力をSNNのものと置き換えることによって、共有重みを更新するためにプロキシANNにおけるSNNのエラーをバックプロパタイトする。
論文 参考訳(メタデータ) (2021-09-27T17:29:51Z) - Optimal Conversion of Conventional Artificial Neural Networks to Spiking
Neural Networks [0.0]
spiking neural networks (snns) は生物学に触発されたニューラルネットワーク (anns) である。
しきい値バランスとソフトリセット機構を組み合わせることで、重みをターゲットSNNに転送する新しい戦略パイプラインを提案する。
提案手法は,SNNのエネルギーとメモリの制限によるサポートを向上し,組込みプラットフォームに組み込むことが期待できる。
論文 参考訳(メタデータ) (2021-02-28T12:04:22Z) - Kernel Based Progressive Distillation for Adder Neural Networks [71.731127378807]
追加のみを含むAdder Neural Networks(ANN)は、エネルギー消費の少ないディープニューラルネットワークを新たに開発する方法を提供する。
すべての畳み込みフィルタを加算フィルタで置き換える場合、精度の低下がある。
本稿では,トレーニング可能なパラメータを増大させることなく,ANNの性能を向上するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-09-28T03:29:19Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。