論文の概要: NeuroFlex: Column-Exact ANN-SNN Co-Execution Accelerator with Cost-Guided Scheduling
- arxiv url: http://arxiv.org/abs/2511.05215v1
- Date: Fri, 07 Nov 2025 13:12:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.76736
- Title: NeuroFlex: Column-Exact ANN-SNN Co-Execution Accelerator with Cost-Guided Scheduling
- Title(参考訳): NeuroFlex: コストガイドスケジューリングを備えたカラムエクササイズANN-SNNコエクゼクティブアクセラレータ
- Authors: Varun Manjunath, Pranav Ramesh, Gopalakrishnan Srinivasan,
- Abstract要約: NeuroFlexは、人工ニューラルネットワークとスパイクニューラルネットワークを併用するカラムレベルのアクセラレータである。
設計は、QCFS ANN-SNN変換を層から独立した列に拡張する。
- 参考スコア(独自算出の注目度): 0.49521576068307877
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: NeuroFlex is a column-level accelerator that co-executes artificial and spiking neural networks to minimize energy-delay product on sparse edge workloads with competitive accuracy. The design extends integer-exact QCFS ANN-SNN conversion from layers to independent columns. It unifies INT8 storage with on-the-fly spike generation using an offline cost model to assign columns to ANN or SNN cores and pack work across processing elements with deterministic runtime. Our cost-guided scheduling algorithm improves throughput by 16-19% over random mapping and lowers EDP by 57-67% versus a strong ANN-only baseline across VGG-16, ResNet-34, GoogLeNet, and BERT models. NeuroFlex also delivers up to 2.5x speedup over LoAS and 2.51x energy reduction over SparTen. These results indicate that fine-grained and integer-exact hybridization outperforms single-mode designs on energy and latency without sacrificing accuracy.
- Abstract(参考訳): NeuroFlexは列レベルのアクセラレータで、ニューラルネットワークとスパイクを共同で実行することで、スパースエッジワークロード上でのエネルギー遅延を、競争力のある精度で最小化する。
この設計は、QCFS ANN-SNN変換を層から独立した列へ拡張する。
これは、オフラインコストモデルを使用してINT8ストレージをオンザフライスパイク生成と統合し、カラムをANNまたはSNNコアに割り当て、決定論的ランタイムで処理要素間で処理をパックする。
VGG-16, ResNet-34, GoogLeNet, BERTモデルにまたがる強力なANNのみのベースラインに対して, コスト誘導スケジューリングアルゴリズムはランダムマッピングよりも16-19%スループットを向上し, EDPを57-67%削減する。
NeuroFlexはまた、LOASの2.5倍のスピードアップとSparTenの2.51倍のエネルギー削減も提供する。
これらの結果から, 微粒化, 整数完全ハイブリッド化は, 精度を犠牲にすることなく, エネルギーとレイテンシにおいて単一モード設計より優れていたことが示唆された。
関連論文リスト
- S$^2$NN: Sub-bit Spiking Neural Networks [53.08060832135342]
スパイキングニューラルネットワーク(SNN)は、マシンインテリジェンスにエネルギー効率のよいパラダイムを提供する。
最近のバイナリSNNの進歩にもかかわらず、大規模ネットワークではストレージと計算の要求が相当に大きい。
1ビット未満の重みを表すサブビットスパイキングニューラルネットワーク(S$2$NNs)を提案する。
論文 参考訳(メタデータ) (2025-09-29T04:17:44Z) - A Hybrid ANN-SNN Architecture for Low-Power and Low-Latency Visual Perception [27.144985031646932]
Spiking Neural Networks(SNN)は、バイオインスパイアされたニューラルネットワークの一種で、エッジデバイスに低消費電力で低レイテンシな推論をもたらすことを約束する。
イベントベース2Dおよび3Dヒューマンポーズ推定の課題について,本手法では,ANNに比べて性能を4%低下させることなく,88%の消費電力を消費することを示した。
論文 参考訳(メタデータ) (2023-03-24T17:38:45Z) - An Optical XNOR-Bitcount Based Accelerator for Efficient Inference of
Binary Neural Networks [0.0]
単一MRRを用いた光XNORゲート(OXG)を発明する
我々は光電荷蓄積器(PCA)と呼ばれるビットカウント回路の新規設計を提案する。
最新の4つのBNNを推定すると、OXBNNはFPS(F frames-per-second)とFPS/W(エネルギー効率)において最大62倍と7.6倍の改善を実現していることがわかる。
論文 参考訳(メタデータ) (2023-02-03T20:56:01Z) - SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks [117.56823277328803]
スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
論文 参考訳(メタデータ) (2022-06-19T16:52:56Z) - Efficient Spiking Neural Networks with Radix Encoding [35.79325964767678]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワーク(ANN)よりもレイテンシとエネルギー効率に利点がある
本稿では,超短スパイク列車を用いたSNNのラジックス符号化を提案する。
実験の結果,VGG-16ネットワークアーキテクチャとCIFAR-10データセットの最先端技術と比較すると,精度は25倍,精度は1.1%向上した。
論文 参考訳(メタデータ) (2021-05-14T16:35:53Z) - NullaNet Tiny: Ultra-low-latency DNN Inference Through Fixed-function
Combinational Logic [4.119948826527649]
フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータは、グラフィックス処理ユニット/中央処理ユニットベースのプラットフォームを置き換える深刻な競争相手として注目を集めています。
本稿では,資源とエネルギー効率,超低遅延FPGAベースニューラルネットワークアクセラレータ構築のためのフレームワークであるNullaNet Tinyを提案する。
論文 参考訳(メタデータ) (2021-04-07T00:16:39Z) - Kernel Based Progressive Distillation for Adder Neural Networks [71.731127378807]
追加のみを含むAdder Neural Networks(ANN)は、エネルギー消費の少ないディープニューラルネットワークを新たに開発する方法を提供する。
すべての畳み込みフィルタを加算フィルタで置き換える場合、精度の低下がある。
本稿では,トレーニング可能なパラメータを増大させることなく,ANNの性能を向上するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-09-28T03:29:19Z) - SmartExchange: Trading Higher-cost Memory Storage/Access for Lower-cost
Computation [97.78417228445883]
We present SmartExchange, a algorithm- hardware co-design framework for energy- efficient inference of Deep Neural Network (DNNs)。
そこで我々は,非零要素がすべてパワー・オブ・ツーである小さな基底行列と大きなスパース係数行列の積として,各重み行列を格納できる,特別に好ましいDNN重み構造を強制する新しいアルゴリズムを開発した。
さらに、SmartExchange強化重量をフル活用し、エネルギー効率と遅延性能の両方を改善するための専用のアクセラレータを設計する。
論文 参考訳(メタデータ) (2020-05-07T12:12:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。