論文の概要: SuperNeuro: A Fast and Scalable Simulator for Neuromorphic Computing
- arxiv url: http://arxiv.org/abs/2305.02510v1
- Date: Thu, 4 May 2023 02:43:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 17:17:14.789514
- Title: SuperNeuro: A Fast and Scalable Simulator for Neuromorphic Computing
- Title(参考訳): SuperNeuro:ニューロモルフィックコンピューティングのための高速でスケーラブルなシミュレータ
- Authors: Prasanna Date, Chathika Gunaratne, Shruti Kulkarni, Robert Patton,
Mark Coletti, Thomas Potok
- Abstract要約: SuperNeuroはニューロモルフィックコンピューティングのための高速でスケーラブルなシミュレータである。
我々は,SuperNeuroが,他のスパルスネットワークシミュレータの約10~300倍の速度で動作可能であることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many neuromorphic workflows, simulators play a vital role for important
tasks such as training spiking neural networks (SNNs), running neuroscience
simulations, and designing, implementing and testing neuromorphic algorithms.
Currently available simulators are catered to either neuroscience workflows
(such as NEST and Brian2) or deep learning workflows (such as BindsNET). While
the neuroscience-based simulators are slow and not very scalable, the deep
learning-based simulators do not support certain functionalities such as
synaptic delay that are typical of neuromorphic workloads. In this paper, we
address this gap in the literature and present SuperNeuro, which is a fast and
scalable simulator for neuromorphic computing, capable of both homogeneous and
heterogeneous simulations as well as GPU acceleration. We also present
preliminary results comparing SuperNeuro to widely used neuromorphic simulators
such as NEST, Brian2 and BindsNET in terms of computation times. We demonstrate
that SuperNeuro can be approximately 10--300 times faster than some of the
other simulators for small sparse networks. On large sparse and large dense
networks, SuperNeuro can be approximately 2.2 and 3.4 times faster than the
other simulators respectively.
- Abstract(参考訳): 多くのニューロモーフィックワークフローにおいて、シミュレータはスパイクニューラルネットワーク(SNN)のトレーニング、神経科学シミュレーションの実行、ニューロモーフィックアルゴリズムの設計、実装、テストといった重要なタスクにおいて重要な役割を果たす。
現在利用可能なシミュレータは、神経科学ワークフロー(NESTやBrian2)か、ディープラーニングワークフロー(BindsNETなど)のいずれかに対応している。
神経科学ベースのシミュレータは遅くてスケーラビリティがあまりないが、ディープラーニングベースのシミュレータは神経型ワークロードの典型的なシナプス遅延のような特定の機能をサポートしていない。
本稿では,ニューロモルフィックコンピューティングのための高速・スケーラブルなシミュレータであるsuperneuroと,同質・異質なシミュレーションとgpuアクセラレーションの両方が可能なsuperneuroについて述べる。
また,NEST,Brian2,BindsNETなどのニューロモルフィックシミュレータを計算時間で比較した予備的な結果を示す。
我々は,SuperNeuroが,他のスパルスネットワークシミュレータの約10~300倍の速度で動作可能であることを示した。
大型のスパースネットワークと大型の高密度ネットワークでは、SuperNeuroは他のシミュレータの約2.2倍と3.4倍高速である。
関連論文リスト
- An Integrated Toolbox for Creating Neuromorphic Edge Applications [3.671692919685993]
スパイキングニューラルネットワーク(SNN)とニューロモルフィックモデルはより効率的で、より生物学的リアリズムを持つ。
CARLsim++は、ニューロモルフィックアプリケーションの高速かつ簡易な作成を可能にする統合ツールボックスである。
論文 参考訳(メタデータ) (2024-04-12T16:34:55Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - SparseProp: Efficient Event-Based Simulation and Training of Sparse
Recurrent Spiking Neural Networks [4.532517021515834]
Spiking Neural Networks(SNN)は、生物学的にインスパイアされたモデルであり、アクションポテンシャルのストリームで情報を処理できる。
SparsePropはスパースSNNをシミュレートし、訓練するための新しいイベントベースアルゴリズムである。
論文 参考訳(メタデータ) (2023-12-28T18:48:10Z) - Addressing the speed-accuracy simulation trade-off for adaptive spiking
neurons [0.0]
本稿では,適応統合火災モデル(ALIF)をアルゴリズム的に再解釈する。
合成ベンチマークで小さなDTを用いて50ドル以上のトレーニングスピードアップを得る。
また、我々のモデルが皮質ニューロンの電気生理学的記録を迅速かつ正確に適合させる方法についても紹介する。
論文 参考訳(メタデータ) (2023-11-19T18:21:45Z) - NeuralClothSim: Neural Deformation Fields Meet the Thin Shell Theory [70.10550467873499]
薄型シェルを用いた新しい擬似布シミュレータであるNeuralClothSimを提案する。
メモリ効率の高い解法はニューラル変形場と呼ばれる新しい連続座標に基づく表面表現を演算する。
論文 参考訳(メタデータ) (2023-08-24T17:59:54Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Mapping and Validating a Point Neuron Model on Intel's Neuromorphic
Hardware Loihi [77.34726150561087]
インテルの第5世代ニューロモルフィックチップ「Loihi」の可能性について検討する。
Loihiは、脳内のニューロンをエミュレートするスパイキングニューラルネットワーク(SNN)という新しいアイデアに基づいている。
Loihiは従来のシミュレーションを非常に効率的に再現し、ネットワークが大きくなるにつれて、時間とエネルギーの両方のパフォーマンスにおいて顕著にスケールする。
論文 参考訳(メタデータ) (2021-09-22T16:52:51Z) - Neuroevolution of a Recurrent Neural Network for Spatial and Working
Memory in a Simulated Robotic Environment [57.91534223695695]
我々は,ラットで観察される行動と神経活動を再現する進化的アルゴリズムを用いて,生物学的に有意なリカレントニューラルネットワーク(RNN)でウェイトを進化させた。
提案手法は, 進化したRNNの動的活動が, 興味深く複雑な認知行動をどのように捉えているかを示す。
論文 参考訳(メタデータ) (2021-02-25T02:13:52Z) - Adaptive Neural Network-Based Approximation to Accelerate Eulerian Fluid
Simulation [9.576796509480445]
モデル生成とアプリケーションを自動化するフレームワークであるSmartfluidnetを紹介します。
Smartfluidnetはシミュレーションの前に複数のニューラルネットワークを生成し、実行時間とシミュレーション品質要件を満たす。
We show that Smartfluidnet achieve a 1.46x and 590x speedup compared with a state-of-the-art neural network model and the original fluid Simulation。
論文 参考訳(メタデータ) (2020-08-26T21:44:44Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。