論文の概要: FeNN: A RISC-V vector processor for Spiking Neural Network acceleration
- arxiv url: http://arxiv.org/abs/2506.11760v1
- Date: Fri, 13 Jun 2025 13:13:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.801554
- Title: FeNN: A RISC-V vector processor for Spiking Neural Network acceleration
- Title(参考訳): FeNN: スパイクニューラルネットワークアクセラレーションのためのRISC-Vベクトルプロセッサ
- Authors: Zainab Aizaz, James C. Knight, Thomas Nowotny,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、AIシステムのエネルギー要求を大幅に削減する可能性がある。
本稿では,FPGA 上でシミュレーションを行う SNN に適した RISC-V-based soft vector processor (FeNN) を提案する。
- 参考スコア(独自算出の注目度): 0.1350479308585481
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) have the potential to drastically reduce the energy requirements of AI systems. However, mainstream accelerators like GPUs and TPUs are designed for the high arithmetic intensity of standard ANNs so are not well-suited to SNN simulation. FPGAs are well-suited to applications with low arithmetic intensity as they have high off-chip memory bandwidth and large amounts of on-chip memory. Here, we present a novel RISC-V-based soft vector processor (FeNN), tailored to simulating SNNs on FPGAs. Unlike most dedicated neuromorphic hardware, FeNN is fully programmable and designed to be integrated with applications running on standard computers from the edge to the cloud. We demonstrate that, by using stochastic rounding and saturation, FeNN can achieve high numerical precision with low hardware utilisation and that a single FeNN core can simulate an SNN classifier faster than both an embedded GPU and the Loihi neuromorphic system.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、AIシステムのエネルギー要求を大幅に削減する可能性がある。
しかし、GPUやTPUのような主流のアクセラレータは、標準的なANNの算術的強度が高いために設計されており、SNNシミュレーションには適していない。
FPGAは、オフチップメモリ帯域と大量のオンチップメモリを有するため、演算強度の低いアプリケーションに適している。
本稿では,FPGA上でのSNNのシミュレーションに適した,RISC-Vベースのソフトベクタープロセッサ(FeNN)を提案する。
多くの専用ニューロモルフィックハードウェアとは異なり、FeNNは完全にプログラム可能で、エッジからクラウドまでの標準コンピュータ上で動作するアプリケーションと統合できるように設計されている。
確率的ラウンドリングと飽和により、FeNNは低ハードウェア利用で高い数値精度を達成でき、単一のFeNNコアが組込みGPUとLoihiニューロモルフィックシステムの両方よりも高速にSNN分類器をシミュレートできることを実証した。
関連論文リスト
- $SpikePack$: Enhanced Information Flow in Spiking Neural Networks with High Hardware Compatibility [6.569750512966661]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率が高く生物学的にインスパイアされたコンピューティングを約束する。
我々は,膜電位リセットや漏洩結合といった重要な機能を保ちながら,透過損失を低減するために設計されたニューロンモデルである$SpikePack$を紹介した。
論文 参考訳(メタデータ) (2025-01-24T13:37:26Z) - Scalable Mechanistic Neural Networks for Differential Equations and Machine Learning [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
計算時間と空間複雑度はそれぞれ、列長に関して立方体と二次体から線形へと減少する。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Spyx: A Library for Just-In-Time Compiled Optimization of Spiking Neural
Networks [0.08965418284317034]
Spiking Neural Networks(SNN)は、小さくて低消費電力なハードウェアフットプリントによるエネルギー効率の向上を提供する。
本稿では、JAXで設計された新しい軽量SNNシミュレーションおよび最適化ライブラリSpyxを紹介する。
論文 参考訳(メタデータ) (2024-02-29T09:46:44Z) - Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - E3NE: An End-to-End Framework for Accelerating Spiking Neural Networks
with Emerging Neural Encoding on FPGAs [6.047137174639418]
エンドツーエンドフレームワークのE3NEはFPGAのための効率的なSNN推論ロジックを生成する。
E3NEはハードウェアリソースの50%未満を消費し、20%の電力を消費する一方で、レイテンシを桁違いに低減する。
論文 参考訳(メタデータ) (2021-11-19T04:01:19Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Compiling Spiking Neural Networks to Neuromorphic Hardware [4.273223677453178]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上で実行される機械学習アプリケーションのエネルギー消費を減少させる。
本稿では,資源制約のあるニューロモルフィックハードウェア上でSNNを分析し,コンパイルする手法を提案する。
論文 参考訳(メタデータ) (2020-04-07T21:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。