論文の概要: Spiking Associative Memory for Spatio-Temporal Patterns
- arxiv url: http://arxiv.org/abs/2006.16684v1
- Date: Tue, 30 Jun 2020 11:08:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 05:12:26.180967
- Title: Spiking Associative Memory for Spatio-Temporal Patterns
- Title(参考訳): 時空間パターンに対するスパイキング連想記憶
- Authors: Simon Davidson, Stephen B. Furber and Oliver Rhodes
- Abstract要約: スパイクタイミング依存塑性(Spike Timing Dependent Plasticity)は、実際の皮質組織で実証された学習形式である。
我々はサイクリックSTDPと呼ばれる単純な学習規則を開発し、ニューロンの正確なスパイク時間におけるパターンを抽出する。
この学習規則によって与えられるニューロンの集団は、短期記憶として有効であることを示す。
- 参考スコア(独自算出の注目度): 0.21094707683348418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spike Timing Dependent Plasticity is form of learning that has been
demonstrated in real cortical tissue, but attempts to use it for artificial
systems have not produced good results. This paper seeks to remedy this with
two significant advances. The first is the development a simple stochastic
learning rule called cyclic STDP that can extract patterns encoded in the
precise spiking times of a group of neurons. We show that a population of
neurons endowed with this learning rule can act as an effective short-term
associative memory, storing and reliably recalling a large set of pattern
associations over an extended period of time.
The second major theme examines the challenges associated with training a
neuron to produce a spike at a precise time and for the fidelity of spike
recall time to be maintained as further learning occurs. The strong constraint
of working with precisely-timed spikes (so-called temporal coding) is mandated
by the learning rule but is also consistent with the believe in the necessity
of such an encoding scheme to render a spiking neural network a competitive
solution for flexible intelligent systems in continuous learning environments.
The encoding and learning rules are demonstrated in the design of a
single-layer associative memory (an input layer consisting of 3,200 spiking
neurons fully-connected to a similar sized population of memory neurons), which
we simulate and characterise. Design considerations and clarification of the
role of parameters under the control of the designer are explored.
- Abstract(参考訳): スパイクタイミング依存塑性(Spike Timing Dependent Plasticity)は、実際の皮質組織で実証された学習形態であるが、人工システムに使用しようとする試みは良い結果を出していない。
本稿は2つの重要な進歩でこれを改善しようとしている。
1つ目は、ニューロン群の正確なスパイク時間にエンコードされたパターンを抽出できる、cyclic stdpと呼ばれる単純な確率的学習規則の開発である。
この学習規則によって与えられるニューロンの集団は、長期にわたるパターン関連を保存し、確実にリコールすることで、効果的な短期連想記憶として機能することを示す。
第2のメインテーマは、正確なタイミングでスパイクを生成するためにニューロンを訓練することに関連する課題と、さらなる学習が行われるにつれてスパイクリコール時間の忠実性を維持することにある。
正確な時間的スパイク(いわゆる時間的符号化)を扱うことの強い制約は、学習規則によって強制されるが、スパイクニューラルネットワークを継続的な学習環境における柔軟なインテリジェントシステムのための競争力のあるソリューションとしてレンダリングするようなエンコーディングスキームの必要性を信じることとも一致している。
符号化と学習のルールは、我々がシミュレートし特徴付けする単層連想メモリ(同様のサイズの記憶ニューロンと完全に接続された3,200個のスパイクニューロンからなる入力層)の設計において実証されている。
設計者の制御下でのパラメータの役割の考察と明確化について検討した。
関連論文リスト
- ELiSe: Efficient Learning of Sequences in Structured Recurrent Networks [1.5931140598271163]
局所的な常時オンおよび位相自由可塑性のみを用いて,効率的な学習シーケンスのモデルを構築した。
鳥の鳴き声学習のモックアップでELiSeの能力を実証し、パラメトリゼーションに関してその柔軟性を実証する。
論文 参考訳(メタデータ) (2024-02-26T17:30:34Z) - TC-LIF: A Two-Compartment Spiking Neuron Model for Long-Term Sequential
Modelling [54.97005925277638]
潜在的な可能性や危険に関連する感覚的手がかりの同定は、長期間の遅延によって有用な手がかりを分離する無関係な事象によってしばしば複雑になる。
SNN(State-of-the-art spiking Neural Network)は、遠方のキュー間の長期的な時間的依存関係を確立する上で、依然として困難な課題である。
そこで本研究では,T-LIFとよばれる,生物学的にインスパイアされたTwo-compartment Leaky Integrate- and-Fireのスパイキングニューロンモデルを提案する。
論文 参考訳(メタデータ) (2023-08-25T08:54:41Z) - Long Short-term Memory with Two-Compartment Spiking Neuron [64.02161577259426]
LSTM-LIFとよばれる,生物学的にインスパイアされたLong Short-Term Memory Leaky Integrate-and-Fireのスパイキングニューロンモデルを提案する。
実験結果は,時間的分類タスクの多種多様な範囲において,優れた時間的分類能力,迅速な訓練収束,ネットワークの一般化性,LSTM-LIFモデルの高エネルギー化を実証した。
したがって、この研究は、新しいニューロモルフィック・コンピューティング・マシンにおいて、困難な時間的処理タスクを解決するための、無数の機会を開放する。
論文 参考訳(メタデータ) (2023-07-14T08:51:03Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Axonal Delay As a Short-Term Memory for Feed Forward Deep Spiking Neural
Networks [3.985532502580783]
近年の研究では、学習過程において神経細胞の時間遅延が重要な役割を担っていることが判明している。
スパイクの正確なタイミングを設定することは、SNNにおける時間情報の伝達過程を理解し改善するための有望な方向である。
本稿では,教師付き学習に時間遅延を統合することの有効性を検証するとともに,短期記憶による軸索遅延を変調するモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-20T16:56:42Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Deep Metric Learning with Locality Sensitive Angular Loss for
Self-Correcting Source Separation of Neural Spiking Signals [77.34726150561087]
本稿では, 深層学習に基づく手法を提案し, 自動掃除とロバスト分離フィルタの必要性に対処する。
本手法は, ソース分離した高密度表面筋電図記録に基づいて, 人工的に劣化したラベルセットを用いて検証する。
このアプローチにより、ニューラルネットワークは、信号のラベル付けの不完全な方法を使用して、神経生理学的時系列を正確に復号することができる。
論文 参考訳(メタデータ) (2021-10-13T21:51:56Z) - Neuromorphic Algorithm-hardware Codesign for Temporal Pattern Learning [11.781094547718595]
複雑な空間時間パターンを学習するためにSNNを訓練できるLeaky IntegrateとFireニューロンの効率的なトレーニングアルゴリズムを導出する。
我々は,ニューロンとシナプスのメムリスタに基づくネットワークのためのCMOS回路実装を開発した。
論文 参考訳(メタデータ) (2021-04-21T18:23:31Z) - Bio-plausible Unsupervised Delay Learning for Extracting Temporal
Features in Spiking Neural Networks [0.548253258922555]
ニューロン間の伝導遅延の可塑性は、学習において基本的な役割を果たす。
シナプス遅延の正確な調整を理解することは、効果的な脳にインスパイアされた計算モデルを開発するのに役立ちます。
論文 参考訳(メタデータ) (2020-11-18T16:25:32Z) - A Deep 2-Dimensional Dynamical Spiking Neuronal Network for Temporal
Encoding trained with STDP [10.982390333064536]
哺乳動物の大脳皮質を模倣する動的・カオス的な活動を持つ大きな層状SNNは、時間的データから情報を符号化することができることを示す。
ネットワーク重みに固有のランダム性は、STDPによる自己組織化後に入力される時間データを符号化するグループを形成することができると主張している。
情報伝達の指標として,ネットワークエントロピーの観点からネットワークを解析する。
論文 参考訳(メタデータ) (2020-09-01T17:12:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。