論文の概要: PyCARL: A PyNN Interface for Hardware-Software Co-Simulation of Spiking
Neural Network
- arxiv url: http://arxiv.org/abs/2003.09696v2
- Date: Tue, 12 May 2020 13:31:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 12:40:58.232670
- Title: PyCARL: A PyNN Interface for Hardware-Software Co-Simulation of Spiking
Neural Network
- Title(参考訳): PyCARL:スパイクニューラルネットワークのハードウェアソフト協調シミュレーションのためのPyNNインタフェース
- Authors: Adarsha Balaji, Prathyusha Adiraju, Hirak J. Kashyap, Anup Das,
Jeffrey L. Krichmar, Nikil D. Dutt, Francky Catthoor
- Abstract要約: PyCARLは、スパイキングニューラルネットワーク(SNN)のハードウェアとソフトウェアの共同シミュレーションのためのPythonプログラミングインタフェースである
我々は,計算効率,GPUアクセラレーション,生物物理学的なSNNシミュレータであるCARLsimに対するPyNNのインタフェースを提供する。
我々は、TrueNorth、Loihi、DynapSEといった最先端のニューロモルフィックハードウェアのサイクル精度モデルをPyCARLに統合する。
- 参考スコア(独自算出の注目度): 5.657865139221597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present PyCARL, a PyNN-based common Python programming interface for
hardware-software co-simulation of spiking neural network (SNN). Through
PyCARL, we make the following two key contributions. First, we provide an
interface of PyNN to CARLsim, a computationally-efficient, GPU-accelerated and
biophysically-detailed SNN simulator. PyCARL facilitates joint development of
machine learning models and code sharing between CARLsim and PyNN users,
promoting an integrated and larger neuromorphic community. Second, we integrate
cycle-accurate models of state-of-the-art neuromorphic hardware such as
TrueNorth, Loihi, and DynapSE in PyCARL, to accurately model hardware latencies
that delay spikes between communicating neurons and degrade performance. PyCARL
allows users to analyze and optimize the performance difference between
software-only simulation and hardware-software co-simulation of their machine
learning models. We show that system designers can also use PyCARL to perform
design-space exploration early in the product development stage, facilitating
faster time-to-deployment of neuromorphic products. We evaluate the memory
usage and simulation time of PyCARL using functionality tests, synthetic SNNs,
and realistic applications. Our results demonstrate that for large SNNs, PyCARL
does not lead to any significant overhead compared to CARLsim. We also use
PyCARL to analyze these SNNs for a state-of-the-art neuromorphic hardware and
demonstrate a significant performance deviation from software-only simulations.
PyCARL allows to evaluate and minimize such differences early during model
development.
- Abstract(参考訳): PyCARLは、スパイキングニューラルネットワーク(SNN)のハードウェア・ソフトウェア共同シミュレーションのための、PyNNベースの共通Pythonプログラミングインタフェースである。
PyCARLを通じて、以下の2つの重要なコントリビューションを行います。
まず,計算効率,GPU加速,生体物理詳細SNNシミュレータであるCARLsimにPyNNのインタフェースを提供する。
PyCARLは機械学習モデルの共同開発とCARLsimとPyNNユーザ間のコード共有を促進し、統合的でより大きなニューロモルフィックコミュニティを促進する。
第2に,truenorth,loihi,dynapseなどの最先端ニューロモルフィックハードウェアのサイクル正確なモデルをpycarlに統合し,通信ニューロン間のスパイクを遅延させ,性能を低下させるハードウェア遅延を正確にモデル化する。
pycarlは、ソフトウェアのみのシミュレーションと、機械学習モデルのハードウェアとソフトウェアの共同シミュレーションのパフォーマンスの違いを分析し最適化する。
システム設計者はpycarlを使って、製品開発の初期段階で設計空間の探索を行い、神経形態の製品をより早くデプロイできることを示した。
我々はPyCARLのメモリ使用量とシミュレーション時間を,機能テスト,合成SNN,現実的なアプリケーションを用いて評価した。
以上の結果から,大規模SNNではCARLsimに比べてPyCARLは大きなオーバーヘッドを伴わないことが示された。
我々はまた、これらのSNNを最先端のニューロモルフィックハードウェアとして分析するためにPyCARLを使用し、ソフトウェアのみのシミュレーションとの大きな性能差を示す。
PyCARLは、モデル開発の初期にそのような違いを評価し、最小化することができる。
関連論文リスト
- A Realistic Simulation Framework for Analog/Digital Neuromorphic Architectures [73.65190161312555]
ARCANAは、混合信号ニューロモルフィック回路の特性を考慮に入れたスパイクニューラルネットワークシミュレータである。
その結果,ソフトウェアでトレーニングしたスパイクニューラルネットワークの挙動を,信頼性の高い推定結果として提示した。
論文 参考訳(メタデータ) (2024-09-23T11:16:46Z) - SNNAX -- Spiking Neural Networks in JAX [0.8321953606016751]
スパイキングニューラルネットワーク(SNN)シミュレータは、生物学的にインスパイアされたモデルとニューロモルフィックなハードウェアアーキテクチャをプロトタイプするために必要なツールである。
我々は、PyTorchのような直感性とJAXのような実行速度で、このようなモデルをシミュレートし、訓練するためのJAXベースのフレームワークSNNAXを提案する。
論文 参考訳(メタデータ) (2024-09-04T16:14:14Z) - GPU-RANC: A CUDA Accelerated Simulation Framework for Neuromorphic Architectures [1.3401966602181168]
ニューロモーフィックコンピューティングのための再構成可能なアーキテクチャ(RANC)のGPUによる実装について紹介する。
512個のニューロモルフィックコアMNIST推論アプリケーションに基づくRANCシミュレータのシリアルバージョンと比較して,最大780倍の高速化を示した。
論文 参考訳(メタデータ) (2024-04-24T21:08:21Z) - Spyx: A Library for Just-In-Time Compiled Optimization of Spiking Neural
Networks [0.08965418284317034]
Spiking Neural Networks(SNN)は、小さくて低消費電力なハードウェアフットプリントによるエネルギー効率の向上を提供する。
本稿では、JAXで設計された新しい軽量SNNシミュレーションおよび最適化ライブラリSpyxを紹介する。
論文 参考訳(メタデータ) (2024-02-29T09:46:44Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - DFSynthesizer: Dataflow-based Synthesis of Spiking Neural Networks to
Neuromorphic Hardware [4.273223677453178]
Spiking Neural Networks(SNN)は、イベント駆動型アクティベーションとバイオインスパイアされた学習アルゴリズムを使用する、新たな計算モデルである。
DF Synthesizerは、SNNベースの機械学習プログラムをニューロモルフィックハードウェアに合成するためのエンドツーエンドフレームワークである。
論文 参考訳(メタデータ) (2021-08-04T12:49:37Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - DNN+NeuroSim V2.0: An End-to-End Benchmarking Framework for
Compute-in-Memory Accelerators for On-chip Training [4.555081317066413]
NeuroSimは、ディープニューラルネットワークのための計算メモリ(CIM)アクセラレータをベンチマークするための統合フレームワークである。
pythonラッパーはNeuroSimと一般的な機械学習プラットフォームであるPytorchとをインターフェースするために開発されている。
論文 参考訳(メタデータ) (2020-03-13T20:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。