論文の概要: Modeling Associative Plasticity between Synapses to Enhance Learning of
Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2207.11670v1
- Date: Sun, 24 Jul 2022 06:12:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:07:00.435125
- Title: Modeling Associative Plasticity between Synapses to Enhance Learning of
Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークの学習を促進するためのシナプス間の連想塑性のモデル化
- Authors: Haibo Shen, Juyu Xiao, Yihao Luo, Xiang Cao, Liangqi Zhang, Tianjiang
Wang
- Abstract要約: Spiking Neural Networks(SNN)は、ニューラルネットワークの第3世代であり、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする。
本稿では,シナプス間の結合可塑性をモデル化し,頑健で効果的な学習機構を提案する。
本手法は静的および最先端のニューロモルフィックデータセット上での優れた性能を実現する。
- 参考スコア(独自算出の注目度): 4.736525128377909
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) are the third generation of artificial neural
networks that enable energy-efficient implementation on neuromorphic hardware.
However, the discrete transmission of spikes brings significant challenges to
the robust and high-performance learning mechanism. Most existing works focus
solely on learning between neurons but ignore the influence between synapses,
resulting in a loss of robustness and accuracy. To address this problem, we
propose a robust and effective learning mechanism by modeling the associative
plasticity between synapses (APBS) observed from the physiological phenomenon
of associative long-term potentiation (ALTP). With the proposed APBS method,
synapses of the same neuron interact through a shared factor when concurrently
stimulated by other neurons. In addition, we propose a spatiotemporal cropping
and flipping (STCF) method to improve the generalization ability of our
network. Extensive experiments demonstrate that our approaches achieve superior
performance on static CIFAR-10 datasets and state-of-the-art performance on
neuromorphic MNIST-DVS, CIFAR10-DVS datasets by a lightweight convolution
network. To our best knowledge, this is the first time to explore a learning
method between synapses and an extended approach for neuromorphic data.
- Abstract(参考訳): spiking neural networks(snn)は、ニューロモルフィック・ハードウェア上でエネルギー効率の良い実装を可能にする第3世代のニューラルネットワークである。
しかし、スパイクの離散的な伝達は、堅牢で高性能な学習メカニズムに大きな課題をもたらす。
既存の作品の多くは神経細胞間の学習のみに焦点を当てているが、シナプス間の影響を無視し、堅牢性と正確性が失われる。
そこで本研究では,結合性長期増強(ALTP)の生理的現象から観察されるシナプス間の連想塑性(APBS)をモデル化し,頑健で効果的な学習機構を提案する。
APBS法では、同じニューロンのシナプスが他のニューロンによって同時に刺激されると共有因子を介して相互作用する。
さらに,ネットワークの一般化能力を向上させるため,時空間トリミング・フリップ法(STCF)を提案する。
広汎な実験により,我々は静的CIFAR-10データセットとニューロモルフィックMNIST-DVS,CIFAR10-DVSデータセットの最先端性能を軽量畳み込みネットワークにより達成した。
我々の知る限りでは、シナプスとニューロモルフィックデータの拡張アプローチの間の学習方法を探求するのはこれが初めてである。
関連論文リスト
- Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Learning with Chemical versus Electrical Synapses -- Does it Make a
Difference? [61.85704286298537]
バイオインスパイアされたニューラルネットワークは、ニューラルネットワークの理解を深め、AIシステムの最先端を改善する可能性がある。
我々は,光リアルな自律走行シミュレータを用いて自律車線維持実験を行い,その性能を種々の条件下で評価する。
論文 参考訳(メタデータ) (2023-11-21T13:07:20Z) - Dive into the Power of Neuronal Heterogeneity [8.6837371869842]
進化戦略(ES)を用いて、スパイキングニューラルネットワーク(SNN)を最適化し、ランダムネットワークにおける異種ニューロンのより堅牢な最適化を実現するためのバックプロパゲーションベースの手法が直面する課題を示す。
膜時間定数は神経異質性において重要な役割を担っており、その分布は生物学的実験で観察されたものと類似している。
論文 参考訳(メタデータ) (2023-05-19T07:32:29Z) - Contrastive-Signal-Dependent Plasticity: Forward-Forward Learning of
Spiking Neural Systems [73.18020682258606]
我々は、ニューロンの個々の層が並列に機能する、スパイキングニューロンユニットからなる神経模倣アーキテクチャを開発する。
コントラスト信号依存塑性(CSDP)と呼ばれるイベントベース前方学習の一般化を提案する。
いくつかのパターンデータセットに対する実験結果から,CSDPプロセスは分類と再構成の両方が可能な動的再帰スパイクネットワークのトレーニングに有効であることが示された。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Exploiting High Performance Spiking Neural Networks with Efficient
Spiking Patterns [4.8416725611508244]
スパイキングニューラルネットワーク(SNN)は、離散スパイクシーケンスを使用して情報を伝達し、脳の情報伝達を著しく模倣する。
本稿では、動的バーストパターンを導入し、短時間の性能と動的時間的性能のトレードオフを可能にするLeaky Integrate and Fire or Burst(LIFB)ニューロンを設計する。
論文 参考訳(メタデータ) (2023-01-29T04:22:07Z) - A Synapse-Threshold Synergistic Learning Approach for Spiking Neural
Networks [1.8556712517882232]
スパイキングニューラルネットワーク(SNN)は、さまざまなインテリジェントなシナリオにおいて優れた機能を示している。
本研究では,SNNにおけるシナプス重みとスパイク閾値を同時に学習する新しいシナジー学習手法を開発する。
論文 参考訳(メタデータ) (2022-06-10T06:41:36Z) - STNDT: Modeling Neural Population Activity with a Spatiotemporal
Transformer [19.329190789275565]
我々は、個々のニューロンの応答を明示的にモデル化するNDTベースのアーキテクチャであるSpatioTemporal Neural Data Transformer (STNDT)を紹介する。
本モデルは,4つのニューラルデータセット間での神経活動の推定において,アンサンブルレベルでの最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-06-09T18:54:23Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - SpikePropamine: Differentiable Plasticity in Spiking Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)におけるシナプス可塑性と神経調節シナプス可塑性のダイナミクスを学習するための枠組みを導入する。
異なる可塑性で強化されたSNNは、時間的学習課題の集合を解決するのに十分であることを示す。
これらのネットワークは、高次元のロボット学習タスクで移動を生成できることも示されている。
論文 参考訳(メタデータ) (2021-06-04T19:29:07Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。