論文の概要: A Deep 2-Dimensional Dynamical Spiking Neuronal Network for Temporal
Encoding trained with STDP
- arxiv url: http://arxiv.org/abs/2009.00581v1
- Date: Tue, 1 Sep 2020 17:12:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 00:27:17.925513
- Title: A Deep 2-Dimensional Dynamical Spiking Neuronal Network for Temporal
Encoding trained with STDP
- Title(参考訳): STDPを用いた時間符号化のための深部2次元動的スパイク神経ネットワーク
- Authors: Matthew Evanusa and Cornelia Fermuller and Yiannis Aloimonos
- Abstract要約: 哺乳動物の大脳皮質を模倣する動的・カオス的な活動を持つ大きな層状SNNは、時間的データから情報を符号化することができることを示す。
ネットワーク重みに固有のランダム性は、STDPによる自己組織化後に入力される時間データを符号化するグループを形成することができると主張している。
情報伝達の指標として,ネットワークエントロピーの観点からネットワークを解析する。
- 参考スコア(独自算出の注目度): 10.982390333064536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The brain is known to be a highly complex, asynchronous dynamical system that
is highly tailored to encode temporal information. However, recent deep
learning approaches to not take advantage of this temporal coding. Spiking
Neural Networks (SNNs) can be trained using biologically-realistic learning
mechanisms, and can have neuronal activation rules that are biologically
relevant. This type of network is also structured fundamentally around
accepting temporal information through a time-decaying voltage update, a kind
of input that current rate-encoding networks have difficulty with. Here we show
that a large, deep layered SNN with dynamical, chaotic activity mimicking the
mammalian cortex with biologically-inspired learning rules, such as STDP, is
capable of encoding information from temporal data. We argue that the
randomness inherent in the network weights allow the neurons to form groups
that encode the temporal data being inputted after self-organizing with STDP.
We aim to show that precise timing of input stimulus is critical in forming
synchronous neural groups in a layered network. We analyze the network in terms
of network entropy as a metric of information transfer. We hope to tackle two
problems at once: the creation of artificial temporal neural systems for
artificial intelligence, as well as solving coding mechanisms in the brain.
- Abstract(参考訳): 脳は高度に複雑で非同期な力学系であり、時間的情報をエンコードするために高度に調整されている。
しかし、近年のディープラーニングアプローチでは、この時間的コーディングを利用できない。
スパイキングニューラルネットワーク(SNN)は、生物学的に現実的な学習メカニズムを用いて訓練することができ、生物学的に関係のあるニューロン活性化規則を持つことができる。
このタイプのネットワークは、時間遅延電圧更新(現在のレートエンコーディングネットワークでは困難である入力の一種)を通じて時間情報の受信を基本として構成されている。
そこで本研究では,stdpなどの生体学習規則を用いて,哺乳類大脳皮質を模倣する動的・カオス的活動を有する,大きな層状snが,時間的データから情報をエンコードできることを示す。
ネットワーク重みに内在するランダム性は、stdpによる自己組織化後に入力される時間データをエンコードする群をニューロンが形成することを可能にする。
我々は,入力刺激の正確なタイミングが,階層ネットワークにおける同期ニューラルネットワークの形成に重要であることを示す。
情報伝達の指標として,ネットワークエントロピーの観点からネットワークを解析する。
私たちは、一度に2つの問題に取り組むことを望んでいます。人工知能のための人工側頭神経システムの作成と、脳内のコーディングメカニズムの解決です。
関連論文リスト
- A frugal Spiking Neural Network for unsupervised classification of continuous multivariate temporal data [0.0]
スパイキングニューラルネットワーク(SNN)は神経型であり、進化する膜電位を持つより生物学的に可塑性なニューロンを使用する。
本稿では,連続データにおける多変量時間パターンの完全教師なし識別と分類のために設計されたFragal Single-layer SNNを紹介する。
論文 参考訳(メタデータ) (2024-08-08T08:15:51Z) - Stochastic Spiking Neural Networks with First-to-Spike Coding [7.955633422160267]
スパイキングニューラルネットワーク (SNN) は、その生物の楽観性とエネルギー効率で知られている。
本研究では,SNNアーキテクチャにおける新しい計算手法と情報符号化方式の融合について検討する。
提案手法のトレードオフを,精度,推論遅延,スパイク空間性,エネルギー消費,データセットの観点から検討する。
論文 参考訳(メタデータ) (2024-04-26T22:52:23Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - A Spiking Neural Network based on Neural Manifold for Augmenting
Intracortical Brain-Computer Interface Data [5.039813366558306]
脳-コンピュータインターフェース(BCI)は、脳内の神経信号をインストラクションに変換して外部デバイスを制御する。
高度な機械学習手法の出現により、脳-コンピュータインタフェースの能力はかつてないほど強化された。
ここでは、データジェネレータとしてスパイキングニューラルネットワーク(SNN)を用いる。
論文 参考訳(メタデータ) (2022-03-26T15:32:31Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Neuromorphic Algorithm-hardware Codesign for Temporal Pattern Learning [11.781094547718595]
複雑な空間時間パターンを学習するためにSNNを訓練できるLeaky IntegrateとFireニューロンの効率的なトレーニングアルゴリズムを導出する。
我々は,ニューロンとシナプスのメムリスタに基づくネットワークのためのCMOS回路実装を開発した。
論文 参考訳(メタデータ) (2021-04-21T18:23:31Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Exploiting Neuron and Synapse Filter Dynamics in Spatial Temporal
Learning of Deep Spiking Neural Network [7.503685643036081]
空間的時間特性を持つ生物解析可能なSNNモデルは複雑な力学系である。
ニューロン非線形性を持つ無限インパルス応答(IIR)フィルタのネットワークとしてSNNを定式化する。
本稿では,最適シナプスフィルタカーネルと重みを求めることにより,時空間パターンを学習できる学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-19T01:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。