論文の概要: SNAP-V: A RISC-V SoC with Configurable Neuromorphic Acceleration for Small-Scale Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2603.11939v1
- Date: Thu, 12 Mar 2026 13:52:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.118241
- Title: SNAP-V: A RISC-V SoC with Configurable Neuromorphic Acceleration for Small-Scale Spiking Neural Networks
- Title(参考訳): SNAP-V:小型スパイクニューラルネットワークのための構成可能なニューロモルフィック・アクセラレーションを備えたRISC-V SoC
- Authors: Kanishka Gunawardana, Sanka Peeris, Kavishka Rambukwella, Thamish Wanduragala, Saadia Jameel, Roshan Ragel, Isuru Nawinne,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、低消費電力と計算効率のためにエッジコンピューティングに大きな注目を集めている。
本研究は、小型SNN推論のためのRISC-VベースのニューロモルフィックシステムであるSNAP-Vを提示する。
提案手法は,リアルタイムエッジアプリケーションに適した高精度でエネルギー効率の高いSNN推論を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) have gained significant attention in edge computing due to their low power consumption and computational efficiency. However, existing implementations either use conventional System on Chip (SoC) architectures that suffer from memory-processor bottlenecks, or large-scale neuromorphic hardware that is inefficient and wasteful for small-scale SNN applications. This work presents SNAP-V, a RISC-V-based neuromorphic SoC with two accelerator variants: Cerebra-S (bus-based) and Cerebra-H (Network-on-Chip (NoC)-based) which are optimized for small-scale SNN inference, integrating a RISC-V core for management tasks, with both accelerators featuring parallel processing nodes and distributed memory. Experimental results show close agreement between software and hardware inference, with an average accuracy deviation of 2.62% across multiple network configurations, and an average synaptic energy of 1.05 pJ per synaptic operation (SOP) in 45 nm CMOS technology. These results show that the proposed solution enables accurate, energy-efficient SNN inference suitable for real-time edge applications.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、低消費電力と計算効率のためにエッジコンピューティングに大きな注目を集めている。
しかし、既存の実装では、メモリ・プロセッサのボトルネックに悩まされる従来のSystem on Chip (SoC)アーキテクチャや、小規模SNNアプリケーションでは非効率で無駄な大規模なニューロモルフィック・ハードウェアを使用している。
本研究は、小型SNN推論に最適化されたCerebra-S(バスベース)とCerebra-H(ネットワークワークオンチップ(NoCベース)の2つのアクセラレーターを備えたRISC-VベースのニューロモルフィックSoCであるSNAP-Vを、並列処理ノードと分散メモリを備えたRISC-Vコアに統合する。
実験結果は、ソフトウェアとハードウェアの推論の密接な一致を示し、複数のネットワーク構成で平均精度が2.62%、45nmCMOS技術で平均シナプスエネルギーが1.05 pJであることを示す。
これらの結果から,提案手法はリアルタイムエッジアプリケーションに適した高精度でエネルギー効率の高いSNN推論を可能にする。
関連論文リスト
- CMOS Implementation of Field Programmable Spiking Neural Network for Hardware Reservoir Computing [0.0]
Deep Neural Networks(DNN)やLarge Language Models(LLM)といった大規模ニューラルネットワークは、高消費電力、領域要件、プライバシに関する懸念から、エッジアプリケーションへの実践的なデプロイに挑戦する。
本研究は、ハードウェア貯水池コンピューティングのためのCMOS実装フィールドプログラマブルニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-09-22T05:19:46Z) - Enabling Efficient Processing of Spiking Neural Networks with On-Chip Learning on Commodity Neuromorphic Processors for Edge AI Systems [5.343921650701002]
ニューロモルフィックプロセッサ上のスパイキングニューラルネットワーク(SNN)アルゴリズムは、超低消費電力/エネルギーAI計算を提供する。
本稿では,コモディティニューロモルフィックプロセッサ上での効率的なSNN処理を実現するための設計手法を提案する。
論文 参考訳(メタデータ) (2025-04-01T16:52:03Z) - Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Hardware-Software Co-optimised Fast and Accurate Deep Reconfigurable Spiking Inference Accelerator Architecture Design Methodology [2.968768532937366]
Spiking Neural Networks(SNN)は、機械学習モデルのエネルギー効率を改善するための有望なアプローチとして登場した。
我々は,ソフトウェア学習深層ニューラルネットワーク(DNN)を高精度スパイキングモデルに移植するハードウェア・ソフトウェア共同最適化戦略を開発した。
論文 参考訳(メタデータ) (2024-10-07T05:04:13Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - EPIM: Efficient Processing-In-Memory Accelerators based on Epitome [78.79382890789607]
畳み込みのような機能を提供する軽量神経オペレータであるEpitomeを紹介する。
ソフトウェア側では,PIMアクセラレータ上でのエピトームのレイテンシとエネルギを評価する。
ハードウェア効率を向上させるため,PIM対応層設計手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T17:56:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。