論文の概要: Memory via Temporal Delays in weightless Spiking Neural Network
- arxiv url: http://arxiv.org/abs/2202.07132v1
- Date: Tue, 15 Feb 2022 02:09:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 15:44:46.488393
- Title: Memory via Temporal Delays in weightless Spiking Neural Network
- Title(参考訳): 無重力スパイクニューラルネットワークにおける時間遅延による記憶
- Authors: Hananel Hazan, Simon Caby, Christopher Earl, Hava Siegelmann, Michael
Levin
- Abstract要約: 簡単な分類作業を行うことができる無重量スパイクニューラルネットワークのプロトタイプを提案する。
このネットワークのメモリは、接続の強さではなく、ニューロン間のタイミングに格納される。
- 参考スコア(独自算出の注目度): 0.08399688944263842
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A common view in the neuroscience community is that memory is encoded in the
connection strength between neurons. This perception led artificial neural
network models to focus on connection weights as the key variables to modulate
learning. In this paper, we present a prototype for weightless spiking neural
networks that can perform a simple classification task. The memory in this
network is stored in the timing between neurons, rather than the strength of
the connection, and is trained using a Hebbian Spike Timing Dependent
Plasticity (STDP), which modulates the delays of the connection.
- Abstract(参考訳): 神経科学コミュニティにおける一般的な見解は、記憶はニューロン間の接続強度に符号化されているということである。
この知覚により、ニューラルネットワークモデルは学習を変調する鍵となる変数として接続重みに注目した。
本稿では,単純な分類処理を行うことができる無重力スパイクニューラルネットワークのプロトタイプを提案する。
このネットワーク内のメモリは接続の強度よりもニューロン間のタイミングに記憶され、接続の遅延を調整するヘビースパイクタイミング依存可塑性(stdp)を用いて訓練される。
関連論文リスト
- Maelstrom Networks [19.33916380545711]
我々は、リカレントネットワークの強度とフィードフォワードニューラルネットワークのパターンマッチング機能を組み合わせた代替パラダイムを提供する。
これにより、ネットワークをアンロールすることなくフィードフォワードトレーニングの強みを活用することができる。
それは、データが時間領域内で因果的に整理される誘導バイアスを利用するシーケンシャルメモリを備えたニューラルネットワークを提供する。
論文 参考訳(メタデータ) (2024-08-29T15:39:04Z) - Spiking representation learning for associative memories [0.0]
本稿では、教師なし表現学習と連想記憶操作を行う新しい人工スパイクニューラルネットワーク(SNN)を提案する。
モデルの構造は新皮質列状構造から派生し,隠れた表現を学習するためのフィードフォワードプロジェクションと,連想記憶を形成するための繰り返しプロジェクションを組み合わせたものである。
論文 参考訳(メタデータ) (2024-06-05T08:30:11Z) - Expanding memory in recurrent spiking networks [2.8237889121096034]
リカレントスパイキングニューラルネットワーク(RSNN)は、スパイクのバイナリの性質によって強化される、消失する勾配問題のために訓練が難しいことで知られている。
我々はこれらの制限を回避する新しいスパイクニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-10-29T16:46:26Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Spike-based computation using classical recurrent neural networks [1.9171404264679484]
スパイキングニューラルネットワーク(英: Spiking Neural Network)は、ニューロン間の通信が、スパイクと呼ばれるイベントのみによって構成される人工ニューラルネットワークである。
我々は、よく知られた、訓練が容易なリカレントニューラルネットワークのダイナミクスを変更して、イベントベースにする。
この新ネットワークは,MNISTベンチマークにおいて,他の種類のスパイクネットワークに匹敵する性能が得られることを示す。
論文 参考訳(メタデータ) (2023-06-06T12:19:12Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Cross-Frequency Coupling Increases Memory Capacity in Oscillatory Neural
Networks [69.42260428921436]
クロス周波数カップリング(CFC)は、ニューロンの集団間での情報統合と関連している。
我々は,海馬および大脳皮質における観測された$theta - gamma$振動回路の計算的役割を予測するCFCのモデルを構築した。
CFCの存在は, 可塑性シナプスによって結合された神経細胞のメモリ容量を増加させることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:13:36Z) - Astrocytes mediate analogous memory in a multi-layer neuron-astrocytic
network [52.77024349608834]
情報の一部が数秒間堅牢な活動パターンとして維持され、他の刺激が来なければ完全に消滅することを示す。
この種の短期記憶は、操作情報を数秒保存し、次のパターンとの重複を避けるために完全に忘れてしまう。
任意のパターンをロードし、一定の間隔で保存し、適切な手掛かりパターンを入力に適用した場合に検索する方法について示す。
論文 参考訳(メタデータ) (2021-08-31T16:13:15Z) - Hierarchical Associative Memory [2.66512000865131]
Associative Memories や Modern Hopfield Networks は、多くの魅力的な特性を持っている。
パターン補完を行い、多数のメモリを格納し、リカレントニューラルネットワークを使用して記述することができる。
本稿では,任意の数のレイヤを持つ連想メモリの完全再帰モデルについて述べる。
論文 参考訳(メタデータ) (2021-07-14T01:38:40Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。