論文の概要: Efficient Hardware Acceleration of Sparsely Active Convolutional Spiking
Neural Networks
- arxiv url: http://arxiv.org/abs/2203.12437v1
- Date: Wed, 23 Mar 2022 14:18:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 00:45:24.231900
- Title: Efficient Hardware Acceleration of Sparsely Active Convolutional Spiking
Neural Networks
- Title(参考訳): スパースアクティブ畳み込みスパイクニューラルネットワークの効率的なハードウェアアクセラレーション
- Authors: Jan Sommer, M. Akif \"Ozkan, Oliver Keszocze, J\"urgen Teich
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、標準のニューラルネットワークよりも効率的な計算を実現するために、イベントベースで計算する。
本稿では,高いアクティベーション間隔を有する畳み込みSNNの処理に最適化された新しいアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) compute in an event-based matter to achieve a
more efficient computation than standard Neural Networks. In SNNs, neuronal
outputs (i.e. activations) are not encoded with real-valued activations but
with sequences of binary spikes. The motivation of using SNNs over conventional
neural networks is rooted in the special computational aspects of SNNs,
especially the very high degree of sparsity of neural output activations. Well
established architectures for conventional Convolutional Neural Networks (CNNs)
feature large spatial arrays of Processing Elements (PEs) that remain highly
underutilized in the face of activation sparsity. We propose a novel
architecture that is optimized for the processing of Convolutional SNNs (CSNNs)
that feature a high degree of activation sparsity. In our architecture, the
main strategy is to use less but highly utilized PEs. The PE array used to
perform the convolution is only as large as the kernel size, allowing all PEs
to be active as long as there are spikes to process. This constant flow of
spikes is ensured by compressing the feature maps (i.e. the activations) into
queues that can then be processed spike by spike. This compression is performed
in run-time using dedicated circuitry, leading to a self-timed scheduling. This
allows the processing time to scale directly with the number of spikes. A novel
memory organization scheme called memory interlacing is used to efficiently
store and retrieve the membrane potentials of the individual neurons using
multiple small parallel on-chip RAMs. Each RAM is hardwired to its PE, reducing
switching circuitry and allowing RAMs to be located in close proximity to the
respective PE. We implemented the proposed architecture on an FPGA and achieved
a significant speedup compared to other implementations while needing less
hardware resources and maintaining a lower energy consumption.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、標準のニューラルネットワークよりも効率的な計算を実現するために、イベントベースで計算する。
SNNでは、ニューロンの出力(すなわち活性化)は実際の値のアクティベーションではなくバイナリスパイクのシーケンスで符号化される。
従来のニューラルネットワーク上でSNNを使用する動機は、SNNの特別な計算的側面、特に神経出力の活性化の非常に高い範囲に根ざしている。
従来の畳み込みニューラルネットワーク(CNN)のためのよく確立されたアーキテクチャは、アクティベーション・スパシティ(英語版)に直面したままの処理要素(PE)の大きな空間配列を特徴としている。
本稿では,高いアクティベーションスパーシティを有する畳み込みsns(csnn)の処理に最適化された新しいアーキテクチャを提案する。
アーキテクチャにおいて、主な戦略は、少ないが高利用率のPEを使用することです。
コンボリューションを実行するのに使用されるPEアレイはカーネルサイズと同じくらいの大きさしかなく、処理すべきスパイクがある限りすべてのPEをアクティブにすることができる。
このスパイクの一定フローは、フィーチャーマップ(すなわちアクティベーション)をスパイクによって処理可能なキューに圧縮することで保証される。
この圧縮は専用の回路を用いて実行時に行われ、セルフタイムのスケジューリングに繋がる。
これにより、処理時間はスパイクの数に応じて直接スケールできる。
メモリインターレースと呼ばれる新しいメモリ構成方式は、複数の小さな並列オンチップRAMを使用して個々のニューロンの膜電位を効率的に保存し、回収するために用いられる。
各RAMはPEにハードワイヤされ、スイッチング回路を低減し、各PEに近接してRAMを配置できる。
提案したアーキテクチャをFPGA上に実装し,ハードウェアリソースの削減と消費電力の削減を図りながら,他の実装と比較して大幅な高速化を実現した。
関連論文リスト
- Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - Are SNNs Truly Energy-efficient? $-$ A Hardware Perspective [7.539212567508529]
スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率のよい機械学習能力に注目を集めている。
本研究では,SATAとSpikeSimという,大規模SNN推論のための2つのハードウェアベンチマークプラットフォームについて検討する。
論文 参考訳(メタデータ) (2023-09-06T22:23:22Z) - FireFly: A High-Throughput Hardware Accelerator for Spiking Neural
Networks with Efficient DSP and Memory Optimization [6.966706170499345]
スパイキングニューラルネットワーク(SNN)は、強い生物学的解釈性と高エネルギー効率のために広く利用されている。
フィールドプログラマブルゲートアレイ(FPGA)のためのほとんどのSNNハードウェア実装は、演算やメモリ効率の要求を満たすことができない。
発火ニューロンから発生するスパイクをオンザフライ(FireFly)で処理できるFPGAアクセラレータを提案する。
論文 参考訳(メタデータ) (2023-01-05T04:28:07Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Training Energy-Efficient Deep Spiking Neural Networks with Single-Spike
Hybrid Input Encoding [5.725845886457027]
スパイキングニューラルネットワーク(SNN)は、イベント駆動型ニューロモルフィックハードウェアにおいて高い計算効率を提供する。
SNNは、非効率な入力符号化とトレーニング技術により、高い推論遅延に悩まされる。
本稿では低遅延エネルギー効率SNNのためのトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-26T06:16:40Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - ActNN: Reducing Training Memory Footprint via 2-Bit Activation
Compressed Training [68.63354877166756]
ActNNは、バック伝搬のためのランダムに量子化されたアクティベーションを格納するメモリ効率のトレーニングフレームワークである。
ActNNはアクティベーションのメモリフットプリントを12倍に削減し、6.6倍から14倍のバッチサイズでトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-29T05:50:54Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - A Spike in Performance: Training Hybrid-Spiking Neural Networks with
Quantized Activation Functions [6.574517227976925]
Spiking Neural Network(SNN)は、エネルギー効率の高いコンピューティングに対する有望なアプローチである。
我々は、非スパイキングネットワークをSNNに変換する際に、最先端の精度を維持する方法を示す。
論文 参考訳(メタデータ) (2020-02-10T05:24:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。