論文の概要: FeNN-DMA: A RISC-V SoC for SNN acceleration
- arxiv url: http://arxiv.org/abs/2511.00732v1
- Date: Sat, 01 Nov 2025 22:59:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.912554
- Title: FeNN-DMA: A RISC-V SoC for SNN acceleration
- Title(参考訳): FeNN-DMA: SNNアクセラレーションのためのRISC-V SoC
- Authors: Zainab Aizaz, James C. Knight, Thomas Nowotny,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、標準ニューラルネットワーク(ANN)に代わる有望でエネルギー効率のよい代替品である
FeNN-DMAは、最先端の固定機能SNNアクセラレータと同等の資源使用量とエネルギー要求を有することを示す。
スパイキングハイデルベルクディジットとニューロモルフィックMNISTタスクのシミュレーションにおける最先端の分類精度を示す。
- 参考スコア(独自算出の注目度): 2.560446860313122
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) are a promising, energy-efficient alternative to standard Artificial Neural Networks (ANNs) and are particularly well-suited to spatio-temporal tasks such as keyword spotting and video classification. However, SNNs have a much lower arithmetic intensity than ANNs and are therefore not well-matched to standard accelerators like GPUs and TPUs. Field Programmable Gate Arrays(FPGAs) are designed for such memory-bound workloads and here we develop a novel, fully-programmable RISC-V-based system-on-chip (FeNN-DMA), tailored to simulating SNNs on modern UltraScale+ FPGAs. We show that FeNN-DMA has comparable resource usage and energy requirements to state-of-the-art fixed-function SNN accelerators, yet it is capable of simulating much larger and more complex models. Using this functionality, we demonstrate state-of-the-art classification accuracy on the Spiking Heidelberg Digits and Neuromorphic MNIST tasks.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、標準ニューラルネットワーク(ANN)に代わる有望でエネルギー効率のよい代替品であり、特にキーワードスポッティングやビデオ分類のような時空間的タスクに適している。
しかし、SNNはANNよりも算術強度がはるかに低いため、GPUやTPUのような標準的なアクセラレータには適合しない。
Field Programmable Gate Arrays (FPGA) は、そのようなメモリバウンドなワークロードのために設計されており、現代のUltraScale+FPGA上でSNNをシミュレートするのに適した、RISC-Vベースのシステムオンチップ(FeNN-DMA)を開発する。
FeNN-DMAは、最先端の固定機能SNNアクセラレータに匹敵する資源使用量とエネルギー要求を有するが、より大規模で複雑なモデルをシミュレートできる。
この機能を用いて,Spking Heidelberg DigitsとNeuromorphic MNISTタスクの最先端の分類精度を示す。
関連論文リスト
- A Robust, Open-Source Framework for Spiking Neural Networks on Low-End FPGAs [0.0]
スパイキングニューラルネットワーク(SNN)は、ますます電力を消費するニューラルネットワークの潜在的な解決策として登場した。
本稿では、ロバストなSNNアクセラレーションアーキテクチャと、PytorchベースのSNNモデルコンパイラからなるフレームワークを提案する。
このアーキテクチャはローエンドFPGAをターゲットにしており、非常に少ない(6358 LUT、40.5 BRAM)リソースを必要とする。
論文 参考訳(メタデータ) (2025-07-09T21:08:28Z) - FeNN: A RISC-V vector processor for Spiking Neural Network acceleration [0.1350479308585481]
スパイキングニューラルネットワーク(SNN)は、AIシステムのエネルギー要求を大幅に削減する可能性がある。
本稿では,FPGA 上でシミュレーションを行う SNN に適した RISC-V-based soft vector processor (FeNN) を提案する。
論文 参考訳(メタデータ) (2025-06-13T13:13:54Z) - Scalable Mechanistic Neural Networks for Differential Equations and Machine Learning [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
計算時間と空間複雑度はそれぞれ、列長に関して立方体と二次体から線形へと減少する。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Accurate Mapping of RNNs on Neuromorphic Hardware with Adaptive Spiking Neurons [2.9410174624086025]
我々は、SigmaDelta$-low-pass RNN(lpRNN)を、レートベースのRNNをスパイクニューラルネットワーク(SNN)にマッピングするために提示する。
適応スパイキングニューロンモデルは、$SigmaDelta$-modulationを使って信号を符号化し、正確なマッピングを可能にする。
我々は、Intelのニューロモルフィック研究チップLoihiにおけるlpRNNの実装を実演する。
論文 参考訳(メタデータ) (2024-07-18T14:06:07Z) - To Spike or Not to Spike? A Quantitative Comparison of SNN and CNN FPGA
Implementations [0.4405963753136216]
Spiking Neural Networks(SNN)は、リソースとエネルギー効率の向上を約束するCNN実装の新たな代替品である。
本稿では,スパイクイベントキューの新しい符号化方式と,SNNエネルギー効率を向上させるための新しいメモリ構成手法を提案する。
MNISTのような小規模のベンチマークでは、SNNの設計は、対応するCNNの実装よりも多少のレイテンシとエネルギー効率の利点を提供する。
論文 参考訳(メタデータ) (2023-06-22T08:47:09Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。