論文の概要: Flexi-NeurA: A Configurable Neuromorphic Accelerator with Adaptive Bit-Precision Exploration for Edge SNNs
- arxiv url: http://arxiv.org/abs/2602.18140v1
- Date: Fri, 20 Feb 2026 11:01:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.298816
- Title: Flexi-NeurA: A Configurable Neuromorphic Accelerator with Adaptive Bit-Precision Exploration for Edge SNNs
- Title(参考訳): Flexi-NeurA:エッジSNNのための適応ビット精度探索を用いた構成可能なニューロモルフィック加速器
- Authors: Mohammad Farahani, Mohammad Rasoul Roshanshah, Saeed Safari,
- Abstract要約: Flexi-NeurAは、構成可能性、柔軟性、効率を統一するニューロモルフィック・アクセラレーター(コア)である。
効率と低レイテンシを保ちながら、必要なハードウェアリソースと総電力を大幅に削減する。
我々はFlex-plorerを紹介した。Flex-plorerは、コスト効率のよい固定点精度を決定する高誘導設計空間探索ツールである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neuromorphic accelerators promise unparalleled energy efficiency and computational density for spiking neural networks (SNNs), especially in edge intelligence applications. However, most existing platforms exhibit rigid architectures with limited configurability, restricting their adaptability to heterogeneous workloads and diverse design objectives. To address these limitations, we present Flexi-NeurA -- a parameterizable neuromorphic accelerator (core) that unifies configurability, flexibility, and efficiency. Flexi-NeurA allows users to customize neuron models, network structures, and precision settings at design time. By pairing these design-time configurability and flexibility features with a time-multiplexed and event-driven processing approach, Flexi-NeurA substantially reduces the required hardware resources and total power while preserving high efficiency and low inference latency. Complementing this, we introduce Flex-plorer, a heuristic-guided design-space exploration (DSE) tool that determines cost-effective fixed-point precisions for critical parameters -- such as decay factors, synaptic weights, and membrane potentials -- based on user-defined trade-offs between accuracy and resource usage. Based on the configuration selected through the Flex-plorer process, RTL code is configured to match the specified design. Comprehensive evaluations across MNIST, SHD, and DVS benchmarks demonstrate that the Flexi-NeurA and Flex-plorer co-framework achieves substantial improvements in accuracy, latency, and energy efficiency. A three-layer 256--128--10 fully connected network with LIF neurons mapped onto two processing cores achieves 97.23% accuracy on MNIST with 1.1~ms inference latency, utilizing only 1,623 logic cells, 7 BRAMs, and 111~mW of total power -- establishing Flexi-NeurA as a scalable, edge-ready neuromorphic platform.
- Abstract(参考訳): ニューロモルフィック加速器は、特にエッジインテリジェンス応用において、スパイキングニューラルネットワーク(SNN)の非並列エネルギー効率と計算密度を約束する。
しかし、既存のプラットフォームのほとんどは、構成性に制限のある厳密なアーキテクチャを示し、不均一なワークロードやさまざまな設計目標への適応性を制限している。
これらの制限に対処するため、パラメータ化可能なニューロモーフィックアクセラレータ(コア)であるFlexi-NeurAを紹介します。
Flexi-NeurAを使えば、設計時にニューロンモデル、ネットワーク構造、精度設定をカスタマイズできる。
これらの設計時設定性と柔軟性を、時間多重化およびイベント駆動処理アプローチと組み合わせることで、Flexi-NeurAは、高い効率と低推論レイテンシを保ちながら、必要なハードウェアリソースとトータル電力を大幅に削減する。
これに補完するため、私たちはFlex-plorerというヒューリスティック誘導設計空間探索(DSE)ツールを紹介します。これは、正確さとリソース利用の間のユーザ定義のトレードオフに基づいて、決定的パラメーター(減衰係数、シナプス重み、膜電位など)に対するコスト効率の良い固定点精度を決定するものです。
Flex-plorerプロセスで選択された設定に基づいて、RTLコードは指定された設計にマッチするように構成されます。
MNIST、SHD、DVSベンチマークの総合的な評価は、Flexi-NeurAとFlex-plorerのコフレームワークが精度、レイテンシ、エネルギー効率を大幅に改善していることを示している。
LIFニューロンを2つの処理コアにマッピングした3層256--128--10の完全接続ネットワークは、1.1〜msの推論遅延を持つMNIST上で97.23%の精度を達成する。
関連論文リスト
- FFGAF-SNN: The Forward-Forward Based Gradient Approximation Free Training Framework for Spiking Neural Networks [7.310627646090302]
Spiking Neural Networks (SNN)は、エネルギー効率の良いニューロモルフィックコンピューティングのための生物学的に妥当なフレームワークを提供する。
SNNを効率よく訓練することは困難である。
本稿では,スパイキングニューラルネットワークのためのフォワードフォワード(FF)に基づく勾配近似自由トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-31T15:22:23Z) - Coflex: Enhancing HW-NAS with Sparse Gaussian Processes for Efficient and Scalable DNN Accelerator Design [4.489116569191255]
ハードウェア・アウェア・ニューラルサーチ(HW-NAS)は、ニューラルネットワークの性能とハードウェアエネルギー効率を自動的に最適化する効率的なアプローチである。
我々は,Sparse Gaussian Process(SGP)と多目的ベイズ最適化を統合した新しいHW-NASフレームワークであるCoflexを提案する。
論文 参考訳(メタデータ) (2025-07-31T11:16:46Z) - SpikeExplorer: hardware-oriented Design Space Exploration for Spiking Neural Networks on FPGA [42.170149806080204]
SpikExplorerは、ハードウェア指向のAutomatic Design Space ExplorationのためのPythonツールである。
最適なネットワークアーキテクチャ、ニューロンモデル、内部およびトレーニングパラメータを検索する。
MNISTデータセットでは95.8%の精度に達し、消費電力は180mW/image、レイテンシは0.12ms/imageである。
論文 参考訳(メタデータ) (2024-04-04T17:53:08Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。