論文の概要: S$^2$NN: Time Step Reduction of Spiking Surrogate Gradients for Training
Energy Efficient Single-Step Neural Networks
- arxiv url: http://arxiv.org/abs/2201.10879v1
- Date: Wed, 26 Jan 2022 11:31:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-27 14:43:04.506400
- Title: S$^2$NN: Time Step Reduction of Spiking Surrogate Gradients for Training
Energy Efficient Single-Step Neural Networks
- Title(参考訳): S$^2$NN: エネルギー効率のよいシングルステップニューラルネットワークのためのスパイキングサロゲート勾配の時間ステップ削減
- Authors: Kazuma Suetake, Shin-ichi Ikegawa, Ryuji Saiin and Yoshihide Sawada
- Abstract要約: 計算コストが低く高精度なシングルステップニューラルネットワーク(S$2$NN)を提案する。
提案されたS$2$NNは、隠れたレイヤ間の情報をスパイクによってSNNとして処理する。
時間次元を持たないため、トレーニングやBNNのような推論フェーズに遅延がない。
- 参考スコア(独自算出の注目度): 0.40145248246551063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the scales of neural networks increase, techniques that enable them to run
with low computational cost and energy efficiency are required. From such
demands, various efficient neural network paradigms, such as spiking neural
networks (SNNs) or binary neural networks (BNNs), have been proposed. However,
they have sticky drawbacks, such as degraded inference accuracy and latency. To
solve these problems, we propose a single-step neural network (S$^2$NN), an
energy-efficient neural network with low computational cost and high precision.
The proposed S$^2$NN processes the information between hidden layers by spikes
as SNNs. Nevertheless, it has no temporal dimension so that there is no latency
within training and inference phases as BNNs. Thus, the proposed S$^2$NN has a
lower computational cost than SNNs that require time-series processing.
However, S$^2$NN cannot adopt na\"{i}ve backpropagation algorithms due to the
non-differentiability nature of spikes. We deduce a suitable neuron model by
reducing the surrogate gradient for multi-time step SNNs to a single-time step.
We experimentally demonstrated that the obtained neuron model enables S$^2$NN
to train more accurately and energy-efficiently than existing neuron models for
SNNs and BNNs. We also showed that the proposed S$^2$NN could achieve
comparable accuracy to full-precision networks while being highly
energy-efficient.
- Abstract(参考訳): ニューラルネットワークのスケールが増加するにつれて、計算コストとエネルギー効率の低下を実現する技術が必要となる。
このような要求から、スパイキングニューラルネットワーク(SNN)やバイナリニューラルネットワーク(BNN)など、さまざまな効率的なニューラルネットワークパラダイムが提案されている。
しかしながら、推論の精度の低下や遅延といった、頑丈な欠点がある。
これらの問題を解決するために、計算コストが低く高精度なエネルギー効率の高いニューラルネットワークであるシングルステップニューラルネットワーク(S$^2$NN)を提案する。
提案したS$^2$NNは、秘密層間の情報をスパイクによってSNNとして処理する。
それでも、時間次元がないため、トレーニングやBNNのような推論フェーズに遅延がない。
したがって、提案したS$^2$NNは、時系列処理を必要とするSNNよりも計算コストが低い。
しかし、S$^2$NNはスパイクの非微分性の性質のため、na\"{i}veのバックプロパゲーションアルゴリズムを採用できない。
我々は、マルチタイムステップSNNのサロゲート勾配を1ステップに減らし、適切なニューロンモデルを推定する。
得られたニューロンモデルにより、S$^2$NNは既存のSNNやBNNのニューロンモデルよりも正確かつエネルギー効率の高いトレーニングが可能になることを実験的に実証した。
また,提案したS$^2$NNは,高エネルギー効率で完全精度のネットワークに匹敵する精度が得られることを示した。
関連論文リスト
- NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - Accurate Mapping of RNNs on Neuromorphic Hardware with Adaptive Spiking Neurons [2.9410174624086025]
我々は、SigmaDelta$-low-pass RNN(lpRNN)を、レートベースのRNNをスパイクニューラルネットワーク(SNN)にマッピングするために提示する。
適応スパイキングニューロンモデルは、$SigmaDelta$-modulationを使って信号を符号化し、正確なマッピングを可能にする。
我々は、Intelのニューロモルフィック研究チップLoihiにおけるlpRNNの実装を実演する。
論文 参考訳(メタデータ) (2024-07-18T14:06:07Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - tinySNN: Towards Memory- and Energy-Efficient Spiking Neural Networks [14.916996986290902]
スパイキングニューラルネットワーク(SNN)モデルは、高い精度を提供できるため、一般的に好適である。
しかし、資源とエネルギーを制約した組込みプラットフォームにそのようなモデルを適用することは非効率である。
本稿では,SNN処理のメモリおよびエネルギー要求を最適化する小型SNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-17T09:40:40Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Can Deep Neural Networks be Converted to Ultra Low-Latency Spiking
Neural Networks? [3.2108350580418166]
スパイクニューラルネットワーク(SNN)は、時間とともに分散されたバイナリスパイクを介して動作する。
SNNのためのSOTAトレーニング戦略は、非スパイキングディープニューラルネットワーク(DNN)からの変換を伴う
そこで本研究では,DNNと変換SNNの誤差を最小限に抑えながら,これらの分布を正確にキャプチャする新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:47:45Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Optimal Conversion of Conventional Artificial Neural Networks to Spiking
Neural Networks [0.0]
spiking neural networks (snns) は生物学に触発されたニューラルネットワーク (anns) である。
しきい値バランスとソフトリセット機構を組み合わせることで、重みをターゲットSNNに転送する新しい戦略パイプラインを提案する。
提案手法は,SNNのエネルギーとメモリの制限によるサポートを向上し,組込みプラットフォームに組み込むことが期待できる。
論文 参考訳(メタデータ) (2021-02-28T12:04:22Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。