論文の概要: Spyker: High-performance Library for Spiking Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2301.13659v1
- Date: Tue, 31 Jan 2023 14:25:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 16:20:19.221944
- Title: Spyker: High-performance Library for Spiking Deep Neural Networks
- Title(参考訳): spyker: ディープニューラルネットワークをスパイする高性能ライブラリ
- Authors: Shahriar Rezghi Shirsavar, Mohammad-Reza A. Dehaqani
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、その有望な能力のために最近明かされた。
SNNは、以前の世代のニューラルネットワークよりも高い生物学的確率で脳をシミュレートする。
我々は,C++/CUDAをスクラッチから使用して,Spykerという高性能ライブラリを実装した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) have been recently brought to light due to
their promising capabilities. SNNs simulate the brain with higher biological
plausibility compared to previous generations of neural networks. Learning with
fewer samples and consuming less power are among the key features of these
networks. However, the theoretical advantages of SNNs have not been seen in
practice due to the slowness of simulation tools and the impracticality of the
proposed network structures. In this work, we implement a high-performance
library named Spyker using C++/CUDA from scratch that outperforms its
predecessor. Several SNNs are implemented in this work with different learning
rules (spike-timing-dependent plasticity and reinforcement learning) using
Spyker that achieve significantly better runtimes, to prove the practicality of
the library in the simulation of large-scale networks. To our knowledge, no
such tools have been developed to simulate large-scale spiking neural networks
with high performance using a modular structure. Furthermore, a comparison of
the represented stimuli extracted from Spyker to recorded electrophysiology
data is performed to demonstrate the applicability of SNNs in describing the
underlying neural mechanisms of the brain functions. The aim of this library is
to take a significant step toward uncovering the true potential of the brain
computations using SNNs.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、その有望な能力のために最近明かされた。
SNNは、以前の世代のニューラルネットワークよりも高い生物学的確率で脳をシミュレートする。
サンプルの少ない学習と消費電力の削減が,これらのネットワークの重要な特徴のひとつだ。
しかし、シミュレーションツールの遅さと提案したネットワーク構造の非現実性により、SNNの理論的優位性は実際には見られていない。
本研究では,c++/cudaを用いたspykerという高性能ライブラリをスクラッチから実装した。
大規模ネットワークのシミュレーションにおけるライブラリの実用性を証明するために,Spykerを用いた学習ルール(スパイクタイミング依存の塑性と強化学習)を用いて,複数のSNNを実装した。
我々の知る限り、モジュール構造を用いて大規模スパイクニューラルネットワークを高速にシミュレートするツールは開発されていない。
さらに、Spykerから抽出された代表刺激と記録された電気生理学的データとの比較を行い、脳機能の基盤となる神経機構を記述する上でのSNNの適用性を示す。
本ライブラリの目的は,SNNを用いた脳計算の真の可能性を明らかにすることにある。
関連論文リスト
- A survey on learning models of spiking neural membrane systems and spiking neural networks [0.0]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、特定の脳のような特性を持つ、生物学的にインスパイアされたニューラルネットワークのモデルである。
SNNでは、スパイクトレインとスパイクトレインを通してニューロン間の通信が行われる。
SNPSは形式的オートマトン原理に基づくSNNの分岐と見なすことができる。
論文 参考訳(メタデータ) (2024-03-27T14:26:41Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Motif-topology improved Spiking Neural Network for the Cocktail Party
Effect and McGurk Effect [5.63840716873115]
ニューラルネットワーク(ANN)とスパイクニューラルネットワーク(SNN)の複雑な機能形成において、ネットワークアーキテクチャと学習原則が鍵を握っている。
本稿では,効率的なマルチ感覚統合と認知現象シミュレーションのためのモティフトポロジー改善SNN(M-SNN)を提案する。
論文 参考訳(メタデータ) (2022-11-12T08:23:55Z) - A Spiking Neural Network Structure Implementing Reinforcement Learning [0.0]
本稿では,SNNの構造について述べる。
本論文で考察したSNN構造は、LIFAT(Leky Integration-and-fire neuron with adapt threshold)モデルの一般化によって記述されたスパイクニューロンを含む。
私の概念は、RLタスク特性に関する非常に一般的な仮定に基づいており、適用性に目に見える制限はありません。
論文 参考訳(メタデータ) (2022-04-09T09:08:10Z) - Deep Learning in Spiking Phasor Neural Networks [0.6767885381740952]
スパイキングニューラルネットワーク(SNN)は、低レイテンシで低消費電力のニューロモルフィックハードウェアで使用するために、ディープラーニングコミュニティの注目を集めている。
本稿では,Spking Phasor Neural Networks(SPNN)を紹介する。
SPNNは複雑に評価されたディープニューラルネットワーク(DNN)に基づいており、スパイク時間による位相を表す。
論文 参考訳(メタデータ) (2022-04-01T15:06:15Z) - Deep Reinforcement Learning with Spiking Q-learning [51.386945803485084]
スパイクニューラルネットワーク(SNN)は、少ないエネルギー消費で人工知能(AI)を実現することが期待されている。
SNNと深部強化学習(RL)を組み合わせることで、現実的な制御タスクに有望なエネルギー効率の方法を提供する。
論文 参考訳(メタデータ) (2022-01-21T16:42:11Z) - Accurate and efficient time-domain classification with adaptive spiking
recurrent neural networks [1.8515971640245998]
スパイクニューラルネットワーク(SNN)は、より生物学的に実行可能で、より強力なニューラルネットワークモデルとして研究されている。
本稿では、新規なサロゲート勾配と、チューナブルおよび適応性スピッキングニューロンの繰り返しネットワークがSNNの最先端を生み出す様子を示す。
論文 参考訳(メタデータ) (2021-03-12T10:27:29Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。