論文の概要: Contrastive-Signal-Dependent Plasticity: Forward-Forward Learning of
Spiking Neural Systems
- arxiv url: http://arxiv.org/abs/2303.18187v2
- Date: Thu, 7 Dec 2023 06:09:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 18:59:00.595246
- Title: Contrastive-Signal-Dependent Plasticity: Forward-Forward Learning of
Spiking Neural Systems
- Title(参考訳): 対照的な信号依存塑性:スパイキングニューラルシステムの前方学習
- Authors: Alexander Ororbia
- Abstract要約: 我々は、ニューロンの個々の層が並列に機能する、スパイキングニューロンユニットからなる神経模倣アーキテクチャを開発する。
コントラスト信号依存塑性(CSDP)と呼ばれるイベントベース前方学習の一般化を提案する。
いくつかのパターンデータセットに対する実験結果から,CSDPプロセスは分類と再構成の両方が可能な動的再帰スパイクネットワークのトレーニングに有効であることが示された。
- 参考スコア(独自算出の注目度): 73.18020682258606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a neuro-mimetic architecture, composed of spiking neuronal units,
where individual layers of neurons operate in parallel and adapt their synaptic
efficacies without the use of feedback pathways. Specifically, we propose an
event-based generalization of forward-forward learning, which we call
contrastive-signal-dependent plasticity (CSDP), for a spiking neural system
that iteratively processes sensory input over a stimulus window. The dynamics
that underwrite this recurrent circuit entail computing the membrane potential
of each processing element, in each layer, as a function of local bottom-up,
top-down, and lateral signals, facilitating a dynamic, layer-wise parallel form
of neural computation. Unlike other models, such as spiking predictive coding,
which rely on feedback synapses to adjust neural electrical activity, our model
operates purely online and forward in time, offering a promising way to learn
distributed representations of sensory data patterns, with and without labeled
context information. Notably, our experimental results on several pattern
datasets demonstrate that the CSDP process works well for training a dynamic
recurrent spiking network capable of both classification and reconstruction.
- Abstract(参考訳): 我々は,ニューロンの個々の層が並列に動作し,フィードバック経路を使わずにシナプス効果を適応する,スパイク神経ユニットからなる神経模倣アーキテクチャを開発した。
具体的には、刺激窓越しに感覚入力を反復的に処理するスパイキング神経系に対して、コントラスト信号依存塑性(CSDP)と呼ばれる前方学習のイベントベース一般化を提案する。
このリカレント回路を書き換えるダイナミクスは、各層内の各処理要素の膜電位を、局所的なボトムアップ、トップダウン、横方向の信号の関数として計算し、ダイナミックな層間平行なニューラル計算を促進させる。
神経電気活動を調整するためのフィードバックシナプスに依存するスパイク予測符号化のような他のモデルとは異なり、我々のモデルは純粋にオンラインとフォワードで動作し、ラベル付きコンテキスト情報を用いて感覚データパターンの分散表現を学習する有望な方法を提供する。
特に,いくつかのパターンデータセットに対する実験結果から,CSDPプロセスは分類と再構成の両立が可能な動的再帰スパイクネットワークのトレーニングに有効であることが示された。
関連論文リスト
- DYNAP-SE2: a scalable multi-core dynamic neuromorphic asynchronous
spiking neural network processor [2.9175555050594975]
我々は、リアルタイムイベントベーススパイキングニューラルネットワーク(SNN)をプロトタイピングするための、脳にインスパイアされたプラットフォームを提案する。
提案システムは, 短期可塑性, NMDA ゲーティング, AMPA拡散, ホメオスタシス, スパイク周波数適応, コンダクタンス系デンドライトコンパートメント, スパイク伝達遅延などの動的および現実的なニューラル処理現象の直接エミュレーションを支援する。
異なる生物学的に可塑性のニューラルネットワークをエミュレートする柔軟性と、個体群と単一ニューロンの信号の両方をリアルタイムで監視する能力により、基礎研究とエッジコンピューティングの両方への応用のための複雑なニューラルネットワークモデルの開発と検証が可能になる。
論文 参考訳(メタデータ) (2023-10-01T03:48:16Z) - The Predictive Forward-Forward Algorithm [79.07468367923619]
本稿では,ニューラルネットワークにおける信頼割当を行うための予測フォワード(PFF)アルゴリズムを提案する。
我々は,有向生成回路と表現回路を同時に同時に学習する,新しい動的リカレントニューラルネットワークを設計する。
PFFは効率よく学習し、学習信号を伝達し、フォワードパスのみでシナプスを更新する。
論文 参考訳(メタデータ) (2023-01-04T05:34:48Z) - Convolutional Neural Generative Coding: Scaling Predictive Coding to
Natural Images [79.07468367923619]
畳み込み型神経生成符号化(Conv-NGC)を開発した。
我々は、潜伏状態マップを段階的に洗練する柔軟な神経生物学的動機付けアルゴリズムを実装した。
本研究は,脳にインスパイアされたニューラル・システムによる再建と画像復調の課題に対する効果について検討する。
論文 参考訳(メタデータ) (2022-11-22T06:42:41Z) - Spike-based local synaptic plasticity: A survey of computational models
and neuromorphic circuits [1.8464222520424338]
シナプス可塑性のモデル化における歴史的,ボトムアップ的,トップダウン的なアプローチを概観する。
スパイクベース学習ルールの低レイテンシおよび低消費電力ハードウェア実装をサポートする計算プリミティブを同定する。
論文 参考訳(メタデータ) (2022-09-30T15:35:04Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks [4.874780144224057]
我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
論文 参考訳(メタデータ) (2021-11-25T13:24:19Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z) - Structural plasticity on an accelerated analog neuromorphic hardware
system [0.46180371154032884]
我々は, プレ・グポストシナプスのパートナーを常に切り替えることにより, 構造的可塑性を達成するための戦略を提案する。
我々はこのアルゴリズムをアナログニューロモルフィックシステムBrainScaleS-2に実装した。
ネットワークトポロジを最適化する能力を示し、簡単な教師付き学習シナリオで実装を評価した。
論文 参考訳(メタデータ) (2019-12-27T10:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。