論文の概要: SpikeSim: An end-to-end Compute-in-Memory Hardware Evaluation Tool for
Benchmarking Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2210.12899v1
- Date: Mon, 24 Oct 2022 01:07:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 13:18:13.920317
- Title: SpikeSim: An end-to-end Compute-in-Memory Hardware Evaluation Tool for
Benchmarking Spiking Neural Networks
- Title(参考訳): SpikeSim:スパイキングニューラルネットワークのベンチマークのためのエンドツーエンドのハードウェア評価ツール
- Authors: Abhishek Moitra, Abhiroop Bhattacharjee, Runcong Kuang, Gokul
Krishnan, Yu Cao, and Priyadarshini Panda
- Abstract要約: SpikeSimは、IMCマップされたSNNの現実的なパフォーマンス、エネルギ、レイテンシ、領域評価を実現するツールである。
神経モジュールの面積の1.24倍と10倍に減少するSNNトポロジカルな変化と全エネルギー・遅延生成値を提案する。
- 参考スコア(独自算出の注目度): 4.0300632886917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: SNNs are an active research domain towards energy efficient machine
intelligence. Compared to conventional ANNs, SNNs use temporal spike data and
bio-plausible neuronal activation functions such as Leaky-Integrate
Fire/Integrate Fire (LIF/IF) for data processing. However, SNNs incur
significant dot-product operations causing high memory and computation overhead
in standard von-Neumann computing platforms. Today, In-Memory Computing (IMC)
architectures have been proposed to alleviate the "memory-wall bottleneck"
prevalent in von-Neumann architectures. Although recent works have proposed
IMC-based SNN hardware accelerators, the following have been overlooked- 1) the
adverse effects of crossbar non-ideality on SNN performance due to repeated
analog dot-product operations over multiple time-steps, 2) hardware overheads
of essential SNN-specific components such as the LIF/IF and data communication
modules. To this end, we propose SpikeSim, a tool that can perform realistic
performance, energy, latency and area evaluation of IMC-mapped SNNs. SpikeSim
consists of a practical monolithic IMC architecture called SpikeFlow for
mapping SNNs. Additionally, the non-ideality computation engine (NICE) and
energy-latency-area (ELA) engine performs hardware-realistic evaluation of
SpikeFlow-mapped SNNs. Based on 65nm CMOS implementation and experiments on
CIFAR10, CIFAR100 and TinyImagenet datasets, we find that the LIF/IF neuronal
module has significant area contribution (>11% of the total hardware area). We
propose SNN topological modifications leading to 1.24x and 10x reduction in the
neuronal module's area and the overall energy-delay-product value,
respectively. Furthermore, in this work, we perform a holistic comparison
between IMC implemented ANN and SNNs and conclude that lower number of
time-steps are the key to achieve higher throughput and energy-efficiency for
SNNs compared to 4-bit ANNs.
- Abstract(参考訳): SNNはエネルギー効率の良いマシンインテリジェンスに向けた活発な研究領域である。
従来のANNと比較すると、SNNはデータ処理に時間スパイクデータとLeaky-Integrate Fire/Integrate Fire (LIF/IF) のような生物解析可能なニューロン活性化機能を使用する。
しかし、SNNは、標準的なvon-Neumannコンピューティングプラットフォームにおいて、高いメモリと計算オーバーヘッドを引き起こす重要なドット積演算を発生させる。
今日、インメモリコンピューティング(imc)アーキテクチャは、フォン・ノイマンアーキテクチャに広く見られる「メモリ壁ボトルネック」を緩和するために提案されている。
最近の研究でIMCベースのSNNハードウェアアクセラレーターが提案されているが、以下のことは見過ごされている。
1)複数の時間ステップにわたるアナログドット製品操作によるsnn性能に及ぼすクロスバー非理想性の悪影響
2) LIF/IFやデータ通信モジュールといったSNN固有のコンポーネントのハードウェアオーバーヘッド。
そこで我々は,IMCマップしたSNNの現実的な性能,エネルギー,レイテンシ,面積評価を実現するツールであるSpikeSimを提案する。
SpikeSimは、SNNをマッピングするSpikeFlowと呼ばれる実用的なモノリシックIMCアーキテクチャで構成されている。
さらに、非理想計算エンジン(NICE)とエネルギー遅延領域(ELA)エンジンは、SpikeFlowマップされたSNNのハードウェア現実性評価を行う。
65nmのCMOS実装とCIFAR10, CIFAR100, TinyImagenetデータセットを用いた実験の結果, LIF/IFニューロンモジュールはハードウェア全体の11%以上を占めることがわかった。
神経モジュールの面積の1.24倍と10倍に減少するSNNトポロジカルな変化とエネルギー-遅延-生成値の総和を提案する。
さらに,本研究では,IMC が実装した ANN と SNN の総合比較を行い,SNN のスループットとエネルギー効率を 4 ビットの ANN と比較して向上させる鍵となる時間ステップが低いことを結論する。
関連論文リスト
- Accurate Mapping of RNNs on Neuromorphic Hardware with Adaptive Spiking Neurons [2.9410174624086025]
我々は、SigmaDelta$-low-pass RNN(lpRNN)を、レートベースのRNNをスパイクニューラルネットワーク(SNN)にマッピングするために提示する。
適応スパイキングニューロンモデルは、$SigmaDelta$-modulationを使って信号を符号化し、正確なマッピングを可能にする。
我々は、Intelのニューロモルフィック研究チップLoihiにおけるlpRNNの実装を実演する。
論文 参考訳(メタデータ) (2024-07-18T14:06:07Z) - HASNAS: A Hardware-Aware Spiking Neural Architecture Search Framework for Neuromorphic Compute-in-Memory Systems [6.006032394972252]
スパイキングニューラルネットワーク(SNN)は、超低消費電力/エネルギー計算で多様な機械学習タスクを解く能力を示している。
ニューロモルフィックCIMシステムのための新しいハードウェア対応スパイクニューラルネットワーク探索フレームワークであるHASNASを提案する。
論文 参考訳(メタデータ) (2024-06-30T09:51:58Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - Highly Efficient SNNs for High-speed Object Detection [7.3074002563489024]
実験結果から, 物体検出タスクにおいて, 1.5MBのパラメータしか持たないGPU上で, 効率的なSNNが118倍の高速化を実現できることが示唆された。
FPGAプラットフォーム上でのSNNをさらに検証し,800以上のFPSオブジェクトを極めて低レイテンシで検出できるモデルを提案する。
論文 参考訳(メタデータ) (2023-09-27T10:31:12Z) - Are SNNs Truly Energy-efficient? $-$ A Hardware Perspective [7.539212567508529]
スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率のよい機械学習能力に注目を集めている。
本研究では,SATAとSpikeSimという,大規模SNN推論のための2つのハードウェアベンチマークプラットフォームについて検討する。
論文 参考訳(メタデータ) (2023-09-06T22:23:22Z) - Input-Aware Dynamic Timestep Spiking Neural Networks for Efficient
In-Memory Computing [7.738130109655604]
Spiking Neural Networks (SNN) はスパースとバイナリスパイク情報を処理できることから、広く研究の関心を集めている。
IMCハードウェアで使用される時間ステップの数に応じて,SNNのエネルギーコストとレイテンシが線形にスケールすることを示す。
入力対応動的時間ステップSNN(DT-SNN)を提案し,SNNの効率を最大化する。
論文 参考訳(メタデータ) (2023-05-27T03:01:27Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。