論文の概要: SpikeExplorer: hardware-oriented Design Space Exploration for Spiking Neural Networks on FPGA
- arxiv url: http://arxiv.org/abs/2404.03714v1
- Date: Thu, 4 Apr 2024 17:53:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 17:45:28.720319
- Title: SpikeExplorer: hardware-oriented Design Space Exploration for Spiking Neural Networks on FPGA
- Title(参考訳): SpikeExplorer:FPGA上のスパイクニューラルネットワークのためのハードウェア指向設計空間探索
- Authors: Dario Padovano, Alessio Carpegna, Alessandro Savino, Stefano Di Carlo,
- Abstract要約: SpikExplorerは、ハードウェア指向のAutomatic Design Space ExplorationのためのPythonツールである。
最適なネットワークアーキテクチャ、ニューロンモデル、内部およびトレーニングパラメータを検索する。
MNISTデータセットでは95.8%の精度に達し、消費電力は180mW/image、レイテンシは0.12ms/imageである。
- 参考スコア(独自算出の注目度): 42.170149806080204
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: One of today's main concerns is to bring Artificial Intelligence power to embedded systems for edge applications. The hardware resources and power consumption required by state-of-the-art models are incompatible with the constrained environments observed in edge systems, such as IoT nodes and wearable devices. Spiking Neural Networks (SNNs) can represent a solution in this sense: inspired by neuroscience, they reach unparalleled power and resource efficiency when run on dedicated hardware accelerators. However, when designing such accelerators, the amount of choices that can be taken is huge. This paper presents SpikExplorer, a modular and flexible Python tool for hardware-oriented Automatic Design Space Exploration to automate the configuration of FPGA accelerators for SNNs. Using Bayesian optimizations, SpikerExplorer enables hardware-centric multi-objective optimization, supporting factors such as accuracy, area, latency, power, and various combinations during the exploration process. The tool searches the optimal network architecture, neuron model, and internal and training parameters, trying to reach the desired constraints imposed by the user. It allows for a straightforward network configuration, providing the full set of explored points for the user to pick the trade-off that best fits the needs. The potential of SpikExplorer is showcased using three benchmark datasets. It reaches 95.8% accuracy on the MNIST dataset, with a power consumption of 180mW/image and a latency of 0.12 ms/image, making it a powerful tool for automatically optimizing SNNs.
- Abstract(参考訳): 今日の大きな懸念の1つは、エッジアプリケーション用の組み込みシステムに人工知能のパワーをもたらすことである。
最先端モデルに必要なハードウェアリソースと消費電力は、IoTノードやウェアラブルデバイスといったエッジシステムで観測される制約された環境と互換性がない。
神経科学に触発されて、専用のハードウェアアクセラレーターで実行すると、非並列的なパワーとリソース効率に達する。
しかし、そのような加速器を設計する場合、選択できる量は膨大である。
本稿では,SNN用FPGAアクセラレータの構成を自動化するハードウェア指向のAutomatic Design Space Explorationのための,モジュール型で柔軟なPythonツールであるSpikExplorerを提案する。
ベイズ最適化を使用することで、SpikeerExplorerはハードウェア中心の多目的最適化を可能にし、探索プロセス中に精度、面積、レイテンシ、電力、および様々な組み合わせをサポートする。
このツールは、最適なネットワークアーキテクチャ、ニューロンモデル、および内部およびトレーニングパラメータを検索し、ユーザが要求する制約に到達しようとする。
ネットワーク構成が簡単で,ユーザがニーズに最も適したトレードオフを選択するための,調査対象の完全なセットを提供する。
SpikExplorerのポテンシャルは、3つのベンチマークデータセットを使って示される。
MNISTデータセットでは95.8%の精度に達し、消費電力は180mW/image、レイテンシは0.12ms/imageとなり、自動的にSNNを最適化する強力なツールとなっている。
関連論文リスト
- Embedded event based object detection with spiking neural network [0.18641315013048293]
本研究では,SPiking Low-power Event-based ArchiTectureアクセラレータを応用した,組み込み型ニューロモルフィックテストベンチを提案する。
このテストベンチを使用して、最先端のSNNソリューションをロードし、専用ハードウェア上でネットワークをデプロイする際のパフォーマンス損失を推定し、ニューロモルフィックハードウェア上で実際のイベントベースのODを実行する。
論文 参考訳(メタデータ) (2024-06-25T15:02:01Z) - Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - Automotive Object Detection via Learning Sparse Events by Spiking Neurons [20.930277906912394]
スパイキングニューラルネットワーク(SNN)は、本質的にイベントベースのデータと整合した時間的表現を提供する。
自動車のイベントベース物体検出に最適化された特化スパイキング特徴ピラミッドネットワーク(SpikeFPN)を提案する。
論文 参考訳(メタデータ) (2023-07-24T15:47:21Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - E3NE: An End-to-End Framework for Accelerating Spiking Neural Networks
with Emerging Neural Encoding on FPGAs [6.047137174639418]
エンドツーエンドフレームワークのE3NEはFPGAのための効率的なSNN推論ロジックを生成する。
E3NEはハードウェアリソースの50%未満を消費し、20%の電力を消費する一方で、レイテンシを桁違いに低減する。
論文 参考訳(メタデータ) (2021-11-19T04:01:19Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。