論文の概要: Exploiting Neuron and Synapse Filter Dynamics in Spatial Temporal
Learning of Deep Spiking Neural Network
- arxiv url: http://arxiv.org/abs/2003.02944v2
- Date: Sun, 26 Jul 2020 03:39:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 12:41:55.851530
- Title: Exploiting Neuron and Synapse Filter Dynamics in Spatial Temporal
Learning of Deep Spiking Neural Network
- Title(参考訳): 深部スパイクニューラルネットワークの時空間学習における爆発ニューロンとシナプスフィルタのダイナミクス
- Authors: Haowen Fang, Amar Shrestha, Ziyi Zhao, Qinru Qiu
- Abstract要約: 空間的時間特性を持つ生物解析可能なSNNモデルは複雑な力学系である。
ニューロン非線形性を持つ無限インパルス応答(IIR)フィルタのネットワークとしてSNNを定式化する。
本稿では,最適シナプスフィルタカーネルと重みを求めることにより,時空間パターンを学習できる学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 7.503685643036081
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The recent discovered spatial-temporal information processing capability of
bio-inspired Spiking neural networks (SNN) has enabled some interesting models
and applications. However designing large-scale and high-performance model is
yet a challenge due to the lack of robust training algorithms. A bio-plausible
SNN model with spatial-temporal property is a complex dynamic system. Each
synapse and neuron behave as filters capable of preserving temporal
information. As such neuron dynamics and filter effects are ignored in existing
training algorithms, the SNN downgrades into a memoryless system and loses the
ability of temporal signal processing. Furthermore, spike timing plays an
important role in information representation, but conventional rate-based spike
coding models only consider spike trains statistically, and discard information
carried by its temporal structures. To address the above issues, and exploit
the temporal dynamics of SNNs, we formulate SNN as a network of infinite
impulse response (IIR) filters with neuron nonlinearity. We proposed a training
algorithm that is capable to learn spatial-temporal patterns by searching for
the optimal synapse filter kernels and weights. The proposed model and training
algorithm are applied to construct associative memories and classifiers for
synthetic and public datasets including MNIST, NMNIST, DVS 128 etc.; and their
accuracy outperforms state-of-art approaches.
- Abstract(参考訳): 最近発見されたバイオインスパイクニューラルネットワーク(snn)の時空間情報処理能力は、いくつかの興味深いモデルと応用を可能にした。
しかしながら、堅牢なトレーニングアルゴリズムが欠如しているため、大規模かつ高性能なモデルの設計は依然として課題である。
空間的時間特性を持つ生物解析可能なSNNモデルは複雑な力学系である。
各シナプスとニューロンは、時間的情報を保存できるフィルターとして振る舞う。
このようなニューロンダイナミクスやフィルタ効果は既存のトレーニングアルゴリズムでは無視されるため、SNNはメモリレスシステムに格下げし、時間信号処理の能力を失う。
さらに、スパイクタイミングは情報表現において重要な役割を果たすが、従来のレートベースのスパイク符号化モデルはスパイク列車を統計的に考慮し、その時間的構造によって運ばれた情報を破棄するだけである。
上記の問題に対処し、SNNの時間的ダイナミクスを活用するために、ニューロン非線形性を持つ無限インパルス応答(IIR)フィルタのネットワークとしてSNNを定式化する。
我々は,最適シナプスフィルタカーネルと重みを求めることにより,時空間パターンを学習できる学習アルゴリズムを提案した。
提案したモデルとトレーニングアルゴリズムを用いて,MNIST,NMNIST,DVS 128などの合成および公開データセットの連想記憶と分類器を構築する。
精度は最先端のアプローチを上回っている。
関連論文リスト
- A frugal Spiking Neural Network for unsupervised classification of continuous multivariate temporal data [0.0]
スパイキングニューラルネットワーク(SNN)は神経型であり、進化する膜電位を持つより生物学的に可塑性なニューロンを使用する。
本稿では,連続データにおける多変量時間パターンの完全教師なし識別と分類のために設計されたFragal Single-layer SNNを紹介する。
論文 参考訳(メタデータ) (2024-08-08T08:15:51Z) - Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - STSC-SNN: Spatio-Temporal Synaptic Connection with Temporal Convolution
and Attention for Spiking Neural Networks [7.422913384086416]
ニューロモルフィックコンピューティングのアルゴリズムモデルの一つであるスパイキングニューラルネットワーク(SNN)は、時間的処理能力のために多くの研究注目を集めている。
SNNの既存のシナプス構造は、ほぼ完全な接続や空間的2次元畳み込みであり、どちらも時間的依存関係を適切に抽出できない。
生体シナプスからインスピレーションを得てシナプス接続SNNモデルを提案し,シナプス接続の時間的受容場を強化する。
時間的依存を伴うシナプスモデルの提供は、分類タスクにおけるSNNの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:13:22Z) - Exploiting Spiking Dynamics with Spatial-temporal Feature Normalization
in Graph Learning [9.88508686848173]
内在的なダイナミクスを持つ生物学的スパイキングニューロンは、脳の強力な表現力と学習能力を持つ。
ユークリッド空間タスクを処理するためのスパイクニューラルネットワーク(SNN)の最近の進歩にもかかわらず、非ユークリッド空間データの処理においてSNNを活用することは依然として困難である。
本稿では,グラフ学習のためのSNNの直接学習を可能にする,一般的なスパイクに基づくモデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-30T11:20:16Z) - Neuromorphic Algorithm-hardware Codesign for Temporal Pattern Learning [11.781094547718595]
複雑な空間時間パターンを学習するためにSNNを訓練できるLeaky IntegrateとFireニューロンの効率的なトレーニングアルゴリズムを導出する。
我々は,ニューロンとシナプスのメムリスタに基づくネットワークのためのCMOS回路実装を開発した。
論文 参考訳(メタデータ) (2021-04-21T18:23:31Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。