論文の概要: A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding
- arxiv url: http://arxiv.org/abs/2206.02495v1
- Date: Mon, 6 Jun 2022 10:56:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 17:39:57.269080
- Title: A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding
- Title(参考訳): 新たなニューラルエンコーディングを支援するリソース効率の高いスパイクニューラルネットワークアクセラレータ
- Authors: Daniel Gerlinghoff, Zhehui Wang, Xiaozhe Gu, Rick Siow Mong Goh, Tao
Luo
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 6.047137174639418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) recently gained momentum due to their
low-power multiplication-free computing and the closer resemblance of
biological processes in the nervous system of humans. However, SNNs require
very long spike trains (up to 1000) to reach an accuracy similar to their
artificial neural network (ANN) counterparts for large models, which offsets
efficiency and inhibits its application to low-power systems for real-world use
cases. To alleviate this problem, emerging neural encoding schemes are proposed
to shorten the spike train while maintaining the high accuracy. However,
current accelerators for SNN cannot well support the emerging encoding schemes.
In this work, we present a novel hardware architecture that can efficiently
support SNN with emerging neural encoding. Our implementation features energy
and area efficient processing units with increased parallelism and reduced
memory accesses. We verified the accelerator on FPGA and achieve 25% and 90%
improvement over previous work in power consumption and latency, respectively.
At the same time, high area efficiency allows us to scale for large neural
network models. To the best of our knowledge, this is the first work to deploy
the large neural network model VGG on physical FPGA-based neuromorphic
hardware.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングと、人間の神経系における生物学的プロセスの類似性により、最近勢いを増した。
しかし、snsは大規模モデルのニューラルネットワーク(ann)と同等の精度に達するために非常に長いスパイク列車(最大1000本)を必要とし、効率を相殺し、実世界のユースケースで低電力システムへの応用を阻害している。
この問題を軽減するために、スパイクトレインを高精度に保ちながら短縮する新しいニューラルエンコーディング方式を提案する。
しかし、現在のSNNのアクセラレーターは、新しいエンコーディングスキームを十分にサポートできない。
本研究では,SNNをニューラルネットワークで効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
並列性の向上とメモリアクセスの低減を特徴とする省エネ・エリア効率の良い処理ユニットを実装した。
FPGA上でのアクセルの検証を行い,従来の消費電力および遅延処理よりも25%,90%改善した。
同時に、高面積効率により、大規模ニューラルネットワークモデルのスケーリングが可能になる。
我々の知る限りでは、これは物理FPGAベースのニューロモルフィックハードウェアに大規模なニューラルネットワークモデルVGGをデプロイする最初の試みである。
関連論文リスト
- Decoding finger velocity from cortical spike trains with recurrent spiking neural networks [6.404492073110551]
侵襲的脳-機械インタフェース(BMI)は運動障害患者の生活の質を著しく向上させる。
BMIは信頼性の高い復号化性能を提供しながら、厳格なレイテンシとエネルギー制約を満たす必要がある。
2匹のマカクザルの皮質スパイク列から指の速度を復号するためにRSNNを訓練した。
論文 参考訳(メタデータ) (2024-09-03T10:15:33Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - Low Precision Quantization-aware Training in Spiking Neural Networks
with Differentiable Quantization Function [0.5046831208137847]
この研究は、量子化されたニューラルネットワークの最近の進歩とスパイクニューラルネットワークのギャップを埋めることを目的としている。
これは、シグモイド関数の線形結合として表される量子化関数の性能に関する広範な研究を示す。
提案した量子化関数は、4つの人気のあるベンチマーク上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-05-30T09:42:05Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Energy-Efficient Deployment of Machine Learning Workloads on
Neuromorphic Hardware [0.11744028458220425]
ディープラーニングハードウェアアクセラレータがいくつかリリースされ、ディープニューラルネットワーク(DNN)が消費する電力と面積の削減に特化している。
個別の時系列データで動作するスパイクニューラルネットワーク(SNN)は、特殊なニューロモルフィックイベントベース/非同期ハードウェアにデプロイすると、大幅な電力削減を実現することが示されている。
本研究では,事前学習したDNNをSNNに変換するための一般的なガイドを提供するとともに,ニューロモルフィックハードウェア上でのSNNの展開を改善するためのテクニックも提示する。
論文 参考訳(メタデータ) (2022-10-10T20:27:19Z) - Accelerating spiking neural network training [1.6114012813668934]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、脳内の活動電位にインスパイアされた人工ネットワークの一種である。
本稿では,全ての逐次計算を排除し,ベクトル化された演算にのみ依存する単一スパイク/ニューラルオンSNNを直接訓練する手法を提案する。
提案手法は, 従来のSNNと比較して, 95.68 %以上のスパイク数削減を達成し, ニューロモルフィックコンピュータ上でのエネルギー要求を著しく低減する。
論文 参考訳(メタデータ) (2022-05-30T17:48:14Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - E3NE: An End-to-End Framework for Accelerating Spiking Neural Networks
with Emerging Neural Encoding on FPGAs [6.047137174639418]
エンドツーエンドフレームワークのE3NEはFPGAのための効率的なSNN推論ロジックを生成する。
E3NEはハードウェアリソースの50%未満を消費し、20%の電力を消費する一方で、レイテンシを桁違いに低減する。
論文 参考訳(メタデータ) (2021-11-19T04:01:19Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。