論文の概要: Compiling Spiking Neural Networks to Neuromorphic Hardware
- arxiv url: http://arxiv.org/abs/2004.03717v2
- Date: Tue, 12 May 2020 14:02:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 00:06:29.630099
- Title: Compiling Spiking Neural Networks to Neuromorphic Hardware
- Title(参考訳): スパイクニューラルネットワークのニューロモルフィックハードウェアへのコンパイル
- Authors: Shihao Song, Adarsha Balaji, Anup Das, Nagarajan Kandasamy, and James
Shackleford
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上で実行される機械学習アプリケーションのエネルギー消費を減少させる。
本稿では,資源制約のあるニューロモルフィックハードウェア上でSNNを分析し,コンパイルする手法を提案する。
- 参考スコア(独自算出の注目度): 4.273223677453178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning applications that are implemented with spike-based
computation model, e.g., Spiking Neural Network (SNN), have a great potential
to lower the energy consumption when they are executed on a neuromorphic
hardware. However, compiling and mapping an SNN to the hardware is challenging,
especially when compute and storage resources of the hardware (viz. crossbar)
need to be shared among the neurons and synapses of the SNN. We propose an
approach to analyze and compile SNNs on a resource-constrained neuromorphic
hardware, providing guarantee on key performance metrics such as execution time
and throughput. Our approach makes the following three key contributions.
First, we propose a greedy technique to partition an SNN into clusters of
neurons and synapses such that each cluster can fit on to the resources of a
crossbar. Second, we exploit the rich semantics and expressiveness of
Synchronous Dataflow Graphs (SDFGs) to represent a clustered SNN and analyze
its performance using Max-Plus Algebra, considering the available compute and
storage capacities, buffer sizes, and communication bandwidth. Third, we
propose a self-timed execution-based fast technique to compile and admit
SNN-based applications to a neuromorphic hardware at run-time, adapting
dynamically to the available resources on the hardware. We evaluate our
approach with standard SNN-based applications and demonstrate a significant
performance improvement compared to current practices.
- Abstract(参考訳): スパイクベースの計算モデル、例えばspyking neural network(snn)で実装された機械学習アプリケーションは、ニューロモルフィックなハードウェア上で実行される場合のエネルギー消費を減らす大きな可能性を秘めている。
しかしながら、SNNのハードウェアへのコンパイルとマッピングは、特にハードウェアの計算とストレージリソース(例えばクロスバー)をSNNのニューロンとシナプス間で共有する必要がある場合、難しい。
本稿では,資源制約のあるニューロモルフィックハードウェア上でSNNを解析・コンパイルし,実行時間やスループットなどの重要なパフォーマンス指標を保証する手法を提案する。
私たちのアプローチは、以下の3つの重要な貢献をします。
まず,snをニューロンとシナプスのクラスタに分割し,各クラスタをクロスバーのリソースに適合させる技術を提案する。
第2に、SDFG(Synchronous Dataflow Graphs)のリッチなセマンティクスと表現性を利用して、クラスタ化されたSNNを表現し、Max-Plus Algebraを用いて、利用可能な計算能力、ストレージ容量、バッファサイズ、通信帯域幅を考慮してその性能を分析する。
第3に、SNNベースのアプリケーションを実行時にニューロモルフィックなハードウェアにコンパイルし、承認するセルフタイム実行ベースの高速手法を提案し、ハードウェア上の利用可能なリソースに動的に適応する。
提案手法を標準SNNベースのアプリケーションで評価し,現行のプラクティスと比較して大幅な性能向上を示した。
関連論文リスト
- Accurate Mapping of RNNs on Neuromorphic Hardware with Adaptive Spiking Neurons [2.9410174624086025]
我々は、SigmaDelta$-low-pass RNN(lpRNN)を、レートベースのRNNをスパイクニューラルネットワーク(SNN)にマッピングするために提示する。
適応スパイキングニューロンモデルは、$SigmaDelta$-modulationを使って信号を符号化し、正確なマッピングを可能にする。
我々は、Intelのニューロモルフィック研究チップLoihiにおけるlpRNNの実装を実演する。
論文 参考訳(メタデータ) (2024-07-18T14:06:07Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - SpikeSim: An end-to-end Compute-in-Memory Hardware Evaluation Tool for
Benchmarking Spiking Neural Networks [4.0300632886917]
SpikeSimは、IMCマップされたSNNの現実的なパフォーマンス、エネルギ、レイテンシ、領域評価を実現するツールである。
神経モジュールの面積の1.24倍と10倍に減少するSNNトポロジカルな変化と全エネルギー・遅延生成値を提案する。
論文 参考訳(メタデータ) (2022-10-24T01:07:17Z) - Energy-Efficient Deployment of Machine Learning Workloads on
Neuromorphic Hardware [0.11744028458220425]
ディープラーニングハードウェアアクセラレータがいくつかリリースされ、ディープニューラルネットワーク(DNN)が消費する電力と面積の削減に特化している。
個別の時系列データで動作するスパイクニューラルネットワーク(SNN)は、特殊なニューロモルフィックイベントベース/非同期ハードウェアにデプロイすると、大幅な電力削減を実現することが示されている。
本研究では,事前学習したDNNをSNNに変換するための一般的なガイドを提供するとともに,ニューロモルフィックハードウェア上でのSNNの展開を改善するためのテクニックも提示する。
論文 参考訳(メタデータ) (2022-10-10T20:27:19Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - E3NE: An End-to-End Framework for Accelerating Spiking Neural Networks
with Emerging Neural Encoding on FPGAs [6.047137174639418]
エンドツーエンドフレームワークのE3NEはFPGAのための効率的なSNN推論ロジックを生成する。
E3NEはハードウェアリソースの50%未満を消費し、20%の電力を消費する一方で、レイテンシを桁違いに低減する。
論文 参考訳(メタデータ) (2021-11-19T04:01:19Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - DFSynthesizer: Dataflow-based Synthesis of Spiking Neural Networks to
Neuromorphic Hardware [4.273223677453178]
Spiking Neural Networks(SNN)は、イベント駆動型アクティベーションとバイオインスパイアされた学習アルゴリズムを使用する、新たな計算モデルである。
DF Synthesizerは、SNNベースの機械学習プログラムをニューロモルフィックハードウェアに合成するためのエンドツーエンドフレームワークである。
論文 参考訳(メタデータ) (2021-08-04T12:49:37Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。