論文の概要: Modeling Associative Plasticity between Synapses to Enhance Learning of
Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2207.11670v1
- Date: Sun, 24 Jul 2022 06:12:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:07:00.435125
- Title: Modeling Associative Plasticity between Synapses to Enhance Learning of
Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークの学習を促進するためのシナプス間の連想塑性のモデル化
- Authors: Haibo Shen, Juyu Xiao, Yihao Luo, Xiang Cao, Liangqi Zhang, Tianjiang
Wang
- Abstract要約: Spiking Neural Networks(SNN)は、ニューラルネットワークの第3世代であり、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする。
本稿では,シナプス間の結合可塑性をモデル化し,頑健で効果的な学習機構を提案する。
本手法は静的および最先端のニューロモルフィックデータセット上での優れた性能を実現する。
- 参考スコア(独自算出の注目度): 4.736525128377909
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) are the third generation of artificial neural
networks that enable energy-efficient implementation on neuromorphic hardware.
However, the discrete transmission of spikes brings significant challenges to
the robust and high-performance learning mechanism. Most existing works focus
solely on learning between neurons but ignore the influence between synapses,
resulting in a loss of robustness and accuracy. To address this problem, we
propose a robust and effective learning mechanism by modeling the associative
plasticity between synapses (APBS) observed from the physiological phenomenon
of associative long-term potentiation (ALTP). With the proposed APBS method,
synapses of the same neuron interact through a shared factor when concurrently
stimulated by other neurons. In addition, we propose a spatiotemporal cropping
and flipping (STCF) method to improve the generalization ability of our
network. Extensive experiments demonstrate that our approaches achieve superior
performance on static CIFAR-10 datasets and state-of-the-art performance on
neuromorphic MNIST-DVS, CIFAR10-DVS datasets by a lightweight convolution
network. To our best knowledge, this is the first time to explore a learning
method between synapses and an extended approach for neuromorphic data.
- Abstract(参考訳): spiking neural networks(snn)は、ニューロモルフィック・ハードウェア上でエネルギー効率の良い実装を可能にする第3世代のニューラルネットワークである。
しかし、スパイクの離散的な伝達は、堅牢で高性能な学習メカニズムに大きな課題をもたらす。
既存の作品の多くは神経細胞間の学習のみに焦点を当てているが、シナプス間の影響を無視し、堅牢性と正確性が失われる。
そこで本研究では,結合性長期増強(ALTP)の生理的現象から観察されるシナプス間の連想塑性(APBS)をモデル化し,頑健で効果的な学習機構を提案する。
APBS法では、同じニューロンのシナプスが他のニューロンによって同時に刺激されると共有因子を介して相互作用する。
さらに,ネットワークの一般化能力を向上させるため,時空間トリミング・フリップ法(STCF)を提案する。
広汎な実験により,我々は静的CIFAR-10データセットとニューロモルフィックMNIST-DVS,CIFAR10-DVSデータセットの最先端性能を軽量畳み込みネットワークにより達成した。
我々の知る限りでは、シナプスとニューロモルフィックデータの拡張アプローチの間の学習方法を探求するのはこれが初めてである。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Spiking Neural Networks with Consistent Mapping Relations Allow High-Accuracy Inference [9.667807887916132]
スパイクベースのニューロモルフィックハードウェアは、低エネルギー消費と効率的な推論において大きな可能性を証明している。
ディープスパイクニューラルネットワークの直接トレーニングは困難であり、変換ベースの手法では未解決の変換エラーのため、かなりの遅延が必要になる。
論文 参考訳(メタデータ) (2024-06-08T06:40:00Z) - Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Dive into the Power of Neuronal Heterogeneity [8.6837371869842]
進化戦略(ES)を用いて、スパイキングニューラルネットワーク(SNN)を最適化し、ランダムネットワークにおける異種ニューロンのより堅牢な最適化を実現するためのバックプロパゲーションベースの手法が直面する課題を示す。
膜時間定数は神経異質性において重要な役割を担っており、その分布は生物学的実験で観察されたものと類似している。
論文 参考訳(メタデータ) (2023-05-19T07:32:29Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Exploiting High Performance Spiking Neural Networks with Efficient
Spiking Patterns [4.8416725611508244]
スパイキングニューラルネットワーク(SNN)は、離散スパイクシーケンスを使用して情報を伝達し、脳の情報伝達を著しく模倣する。
本稿では、動的バーストパターンを導入し、短時間の性能と動的時間的性能のトレードオフを可能にするLeaky Integrate and Fire or Burst(LIFB)ニューロンを設計する。
論文 参考訳(メタデータ) (2023-01-29T04:22:07Z) - A Synapse-Threshold Synergistic Learning Approach for Spiking Neural
Networks [1.8556712517882232]
スパイキングニューラルネットワーク(SNN)は、さまざまなインテリジェントなシナリオにおいて優れた機能を示している。
本研究では,SNNにおけるシナプス重みとスパイク閾値を同時に学習する新しいシナジー学習手法を開発する。
論文 参考訳(メタデータ) (2022-06-10T06:41:36Z) - SpikePropamine: Differentiable Plasticity in Spiking Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)におけるシナプス可塑性と神経調節シナプス可塑性のダイナミクスを学習するための枠組みを導入する。
異なる可塑性で強化されたSNNは、時間的学習課題の集合を解決するのに十分であることを示す。
これらのネットワークは、高次元のロボット学習タスクで移動を生成できることも示されている。
論文 参考訳(メタデータ) (2021-06-04T19:29:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。