論文の概要: A Robust, Open-Source Framework for Spiking Neural Networks on Low-End FPGAs
- arxiv url: http://arxiv.org/abs/2507.07284v1
- Date: Wed, 09 Jul 2025 21:08:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.206154
- Title: A Robust, Open-Source Framework for Spiking Neural Networks on Low-End FPGAs
- Title(参考訳): ローエンドFPGA上のニューラルネットワークスパイクのためのロバストでオープンソースのフレームワーク
- Authors: Andrew Fan, Simon D. Levy,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、ますます電力を消費するニューラルネットワークの潜在的な解決策として登場した。
本稿では、ロバストなSNNアクセラレーションアーキテクチャと、PytorchベースのSNNモデルコンパイラからなるフレームワークを提案する。
このアーキテクチャはローエンドFPGAをターゲットにしており、非常に少ない(6358 LUT、40.5 BRAM)リソースを必要とする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the demand for compute power in traditional neural networks has increased significantly, spiking neural networks (SNNs) have emerged as a potential solution to increasingly power-hungry neural networks. By operating on 0/1 spikes emitted by neurons instead of arithmetic multiply-and-accumulate operations, SNNs propagate information temporally and spatially, allowing for more efficient compute power. To this end, many architectures for accelerating and simulating SNNs have been developed, including Loihi, TrueNorth, and SpiNNaker. However, these chips are largely inaccessible to the wider community. Field programmable gate arrays (FPGAs) have been explored to serve as a middle ground between neuromorphic and non-neuromorphic hardware, but many proposed architectures require expensive high-end FPGAs or target a single SNN topology. This paper presents a framework consisting of a robust SNN acceleration architecture and a Pytorch-based SNN model compiler. Targeting any-to-any and/or fully connected SNNs, the FPGA architecture features a synaptic array that tiles across the SNN to propagate spikes. The architecture targets low-end FPGAs and requires very little (6358 LUT, 40.5 BRAM) resources. The framework, tested on a low-end Xilinx Artix-7 FPGA at 100 MHz, achieves competitive speed in recognizing MNIST digits (0.52 ms/img). Further experiments also show accurate simulation of hand coded any-to-any spiking neural networks on toy problems. All code and setup instructions are available at https://github.com/im-afan/snn-fpga}{\texttt{https://github.com/im-afan/snn-fpga.
- Abstract(参考訳): 従来のニューラルネットワークにおける計算能力の需要が大幅に増加したため、スパイクニューラルネットワーク(SNN)が、ますます電力を消費するニューラルネットワークの潜在的な解決策として登場した。
算術演算の代わりにニューロンが発する0/1スパイクを操作することで、SNNは情報を時間的に空間的に伝播させ、より効率的な計算能力を実現する。
この目的のために、Loihi、TrueNorth、SpiNNakerなど、SNNの高速化とシミュレーションのための多くのアーキテクチャが開発されている。
しかし、これらのチップは広いコミュニティにはほとんどアクセスできない。
フィールドプログラマブルゲートアレイ(FPGA)はニューロモルフィックハードウェアと非ニューロモルフィックハードウェアの中間層として研究されているが、多くのアーキテクチャでは高価なハイエンドFPGAを必要としている。
本稿では、ロバストなSNNアクセラレーションアーキテクチャと、PytorchベースのSNNモデルコンパイラからなるフレームワークを提案する。
FPGAアーキテクチャは、すべてのSNNと/または完全に接続されたSNNをターゲットとしており、スパイクを伝搬するためにSNN全体にタイルを張るシナプスアレイを備えている。
このアーキテクチャはローエンドFPGAをターゲットにしており、非常に少ない(6358 LUT、40.5 BRAM)リソースを必要とする。
100MHzのXilinx Artix-7 FPGAでテストされたこのフレームワークは、MNIST桁(0.52 ms/img)を認識する際の競争速度を実現する。
さらに実験では、おもちゃの問題に対して手書きの任意のスパイクニューラルネットワークの正確なシミュレーションも行われた。
すべてのコードとセットアップ手順はhttps://github.com/im-afan/snn-fpga}{\texttt{https://github.com/im-afan/snn-fpgaで確認できる。
関連論文リスト
- FeNN: A RISC-V vector processor for Spiking Neural Network acceleration [0.1350479308585481]
スパイキングニューラルネットワーク(SNN)は、AIシステムのエネルギー要求を大幅に削減する可能性がある。
本稿では,FPGA 上でシミュレーションを行う SNN に適した RISC-V-based soft vector processor (FeNN) を提案する。
論文 参考訳(メタデータ) (2025-06-13T13:13:54Z) - Scalable Mechanistic Neural Networks for Differential Equations and Machine Learning [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
計算時間と空間複雑度はそれぞれ、列長に関して立方体と二次体から線形へと減少する。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - SpikeSim: An end-to-end Compute-in-Memory Hardware Evaluation Tool for
Benchmarking Spiking Neural Networks [4.0300632886917]
SpikeSimは、IMCマップされたSNNの現実的なパフォーマンス、エネルギ、レイテンシ、領域評価を実現するツールである。
神経モジュールの面積の1.24倍と10倍に減少するSNNトポロジカルな変化と全エネルギー・遅延生成値を提案する。
論文 参考訳(メタデータ) (2022-10-24T01:07:17Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - E3NE: An End-to-End Framework for Accelerating Spiking Neural Networks
with Emerging Neural Encoding on FPGAs [6.047137174639418]
エンドツーエンドフレームワークのE3NEはFPGAのための効率的なSNN推論ロジックを生成する。
E3NEはハードウェアリソースの50%未満を消費し、20%の電力を消費する一方で、レイテンシを桁違いに低減する。
論文 参考訳(メタデータ) (2021-11-19T04:01:19Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - FPGA Implementation of Simplified Spiking Neural Network [0.6445605125467573]
スパイキングニューラルネットワーク(スパイキングニューラルネットワーク、英: Spiking Neural Networks、SNN)は、生体神経系に近い第3世代のニューラルネットワークである。
SNNは、時間情報をエンコードし、生物学的に可塑性の規則を使用するため、前者よりも強力である。
提案モデルはXilinx Virtex 6 FPGA上で検証され,800個のニューロンと12,544個のシナプスからなる完全に接続されたネットワークをリアルタイムに解析する。
論文 参考訳(メタデータ) (2020-10-02T21:02:35Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。