論文の概要: Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge
- arxiv url: http://arxiv.org/abs/2401.01141v1
- Date: Tue, 2 Jan 2024 10:42:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 14:10:06.117009
- Title: Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge
- Title(参考訳): Spiker+:エッジでの推論のための効率的なスパイキングニューラルネットワークFPGAアクセラレータ生成のためのフレームワーク
- Authors: Alessio Carpegna, Alessandro Savino, Stefano Di Carlo
- Abstract要約: Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
- 参考スコア(独自算出の注目度): 49.42371633618761
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Including Artificial Neural Networks in embedded systems at the edge allows
applications to exploit Artificial Intelligence capabilities directly within
devices operating at the network periphery. This paper introduces Spiker+, a
comprehensive framework for generating efficient, low-power, and low-area
customized Spiking Neural Networks (SNN) accelerators on FPGA for inference at
the edge. Spiker+ presents a configurable multi-layer hardware SNN, a library
of highly efficient neuron architectures, and a design framework, enabling the
development of complex neural network accelerators with few lines of Python
code. Spiker+ is tested on two benchmark datasets, the MNIST and the Spiking
Heidelberg Digits (SHD). On the MNIST, it demonstrates competitive performance
compared to state-of-the-art SNN accelerators. It outperforms them in terms of
resource allocation, with a requirement of 7,612 logic cells and 18 Block RAMs
(BRAMs), which makes it fit in very small FPGA, and power consumption, draining
only 180mW for a complete inference on an input image. The latency is
comparable to the ones observed in the state-of-the-art, with 780us/img. To the
authors' knowledge, Spiker+ is the first SNN accelerator tested on the SHD. In
this case, the accelerator requires 18,268 logic cells and 51 BRAM, with an
overall power consumption of 430mW and a latency of 54 us for a complete
inference on input data. This underscores the significance of Spiker+ in the
hardware-accelerated SNN landscape, making it an excellent solution to deploy
configurable and tunable SNN architectures in resource and power-constrained
edge applications.
- Abstract(参考訳): エッジの組み込みシステムにニューラルネットワークを含めると、アプリケーションはネットワーク周辺で動作しているデバイス内で直接人工知能機能を活用できる。
本稿では,FPGA上で高効率,低消費電力,低領域にカスタマイズされたスパイキングニューラルネットワーク(SNN)アクセラレータを生成するための包括的なフレームワークであるスパイカー+を紹介する。
Spiker+は、構成可能な多層ハードウェアSNN、高効率なニューロンアーキテクチャのライブラリ、設計フレームワークを提供し、Pythonコードの数行で複雑なニューラルネットワークアクセラレータの開発を可能にする。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
MNISTでは、最先端のSNNアクセラレータと比較して、競争性能を示している。
7,612個の論理セルと18個のブロックram(bram)が要求され、非常に小さなfpgaや消費電力に適合し、入力画像の完全な推論には180mwしか消費しない。
レイテンシは、最先端で見られる780us/imgに匹敵する。
著者の知る限り、Spikeer+はSHDでテストされた最初のSNNアクセラレータである。
この場合、アクセルは18,268個の論理セルと51個のブラムを必要とし、全体の消費電力は430mwで、入力データに対する完全な推論のためにレイテンシは54usである。
これにより、ハードウェアアクセラレーションされたSNNランドスケープにおけるSpikeer+の重要性が強調され、リソースおよび電力制約のあるエッジアプリケーションに設定可能でチューニング可能なSNNアーキテクチャをデプロイするための優れたソリューションとなる。
関連論文リスト
- RNC: Efficient RRAM-aware NAS and Compilation for DNNs on Resource-Constrained Edge Devices [0.30458577208819987]
我々は抵抗性ランダムアクセスメモリ(RRAM)に基づく加速器のためのエッジフレンドリーなディープニューラルネットワーク(DNN)の開発を目指している。
本稿では,特定のハードウェア制約を満たす最適化ニューラルネットワークを探索するための,エッジコンパイルとリソース制約付きRRAM対応ニューラルネットワーク探索(NAS)フレームワークを提案する。
NASが速度に最適化した結果のモデルは5x-30倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2024-09-27T15:35:36Z) - Embedded event based object detection with spiking neural network [0.18641315013048293]
本研究では,SPiking Low-power Event-based ArchiTectureアクセラレータを応用した,組み込み型ニューロモルフィックテストベンチを提案する。
このテストベンチを使用して、最先端のSNNソリューションをロードし、専用ハードウェア上でネットワークをデプロイする際のパフォーマンス損失を推定し、ニューロモルフィックハードウェア上で実際のイベントベースのODを実行する。
論文 参考訳(メタデータ) (2024-06-25T15:02:01Z) - SpikeExplorer: hardware-oriented Design Space Exploration for Spiking Neural Networks on FPGA [42.170149806080204]
SpikExplorerは、ハードウェア指向のAutomatic Design Space ExplorationのためのPythonツールである。
最適なネットワークアーキテクチャ、ニューロンモデル、内部およびトレーニングパラメータを検索する。
MNISTデータセットでは95.8%の精度に達し、消費電力は180mW/image、レイテンシは0.12ms/imageである。
論文 参考訳(メタデータ) (2024-04-04T17:53:08Z) - RAMAN: A Re-configurable and Sparse tinyML Accelerator for Inference on
Edge [1.8293684411977293]
エッジでのDeep Neural Network(DNN)ベースの推論は、これらの計算およびデータ集約アルゴリズムを低コストで低消費電力で実装する必要があるため、難しい。
エッジ上のInfereNce用のRe-configurableおよびspArse smallML AcceleratorであるRAMANを紹介します。
論文 参考訳(メタデータ) (2023-06-10T17:25:58Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - E3NE: An End-to-End Framework for Accelerating Spiking Neural Networks
with Emerging Neural Encoding on FPGAs [6.047137174639418]
エンドツーエンドフレームワークのE3NEはFPGAのための効率的なSNN推論ロジックを生成する。
E3NEはハードウェアリソースの50%未満を消費し、20%の電力を消費する一方で、レイテンシを桁違いに低減する。
論文 参考訳(メタデータ) (2021-11-19T04:01:19Z) - AdderNet and its Minimalist Hardware Design for Energy-Efficient
Artificial Intelligence [111.09105910265154]
アドラー畳み込みニューラルネットワーク(AdderNet)を用いた新しいミニマリストハードウェアアーキテクチャを提案する。
AdderNet全体の16%の高速化を実現している。
我々は、AdderNetが他の競争相手を追い越せると結論付けている。
論文 参考訳(メタデータ) (2021-01-25T11:31:52Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。