論文の概要: Beyond Pairwise Plasticity: Group-Level Spike Synchrony Facilitates Efficient Learning in Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2505.14841v1
- Date: Mon, 14 Apr 2025 04:01:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-22 23:32:14.39759
- Title: Beyond Pairwise Plasticity: Group-Level Spike Synchrony Facilitates Efficient Learning in Spiking Neural Networks
- Title(参考訳): Pairwise Plasticityを超えて:グループレベルスパイク同期はスパイクニューラルネットワークの効率的な学習を促進する
- Authors: Yuchen Tian, Assel Kembay, Nhan Duy Truong, Jason K. Eshraghian, Omid Kavehei,
- Abstract要約: 本稿では,ニューロン間の協調発火の度合いに基づいてシナプス重みを調節する,スパイク同期依存性可塑性(SSDP)ルールを導入する。
STDPは、神経細胞がコヒーレントな活動パターンを形成することを奨励することによって、安定的でスケーラブルな学習をサポートする。
STDPは完全にイベント駆動方式で動作し、最小の計算コストを発生させる。
- 参考スコア(独自算出の注目度): 4.8343143600505245
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Brain networks rely on precise spike timing and coordinated activity to support robust and energy-efficient learning. Inspired by these principles, spiking neural networks (SNNs) are widely regarded as promising candidates for low-power, event-driven computing. However, most biologically-inspired learning rules employed in SNNs, including spike-timing-dependent plasticity (STDP), rely on isolated spike pairs and lack sensitivity to population-level activity. This limits their stability and generalization, particularly in noisy and fast-changing environments. Motivated by biological observations that neural synchrony plays a central role in learning and memory, we introduce a spike-synchrony-dependent plasticity (SSDP) rule that adjusts synaptic weights based on the degree of coordinated firing among neurons. SSDP supports stable and scalable learning by encouraging neurons to form coherent activity patterns. One prominent outcome is a sudden transition from unstable to stable dynamics during training, suggesting that synchrony may drive convergence toward equilibrium firing regimes. We demonstrate SSDP's effectiveness across multiple network types, from minimal-layer models to spiking ResNets and SNN-Transformer. To our knowledge, this is the first application of a synaptic plasticity mechanism in a spiking transformer. SSDP operates in a fully event-driven manner and incurs minimal computational cost, making it well-suited for neuromorphic deployment. In this approach, local synaptic modifications are associated with the collective dynamics of neural networks, resulting in a learning strategy that adheres to biological principles while maintaining practical efficiency, these findings position SSDP as a general-purpose optimization strategy for SNNs, while offering new insights into population-based learning mechanisms in the brain.
- Abstract(参考訳): 脳ネットワークは、堅牢でエネルギー効率のよい学習をサポートするために正確なスパイクタイミングと協調活動に依存している。
これらの原則にインスパイアされたスパイクニューラルネットワーク(SNN)は、低消費電力でイベント駆動型コンピューティングの有望な候補として広く見なされている。
しかし、スパイクタイピング依存塑性(STDP)を含むSNNで使われる生物学的にインスパイアされた学習規則のほとんどは、孤立したスパイクペアに依存し、集団レベルの活動に敏感さを欠いている。
これにより安定性と一般化が制限され、特にノイズや急速に変化する環境において。
神経シンクロニーが学習と記憶において中心的な役割を果たすという生物学的観察により,ニューロン間の協調的発火度に基づいてシナプス重みを調節するスパイク同期依存的可塑性(SSDP)ルールが導入された。
SSDPは、神経細胞がコヒーレントな活動パターンを形成することを奨励することによって、安定的でスケーラブルな学習をサポートする。
1つの顕著な結果は、訓練中に不安定な状態から安定な状態への突然の遷移であり、同期が平衡燃焼状態への収束を引き起こすことを示唆している。
我々は、最小層モデルからスパイクResNetsやSNN-Transformerまで、複数のネットワークタイプでSSDPの有効性を実証する。
我々の知る限り、これはスパイキングトランスにおけるシナプス可塑性機構の最初の応用である。
SSDPは完全にイベント駆動方式で動作し、計算コストを最小限に抑え、ニューロモルフィックな展開に適している。
このアプローチでは、局所的なシナプス修飾はニューラルネットワークの集合的ダイナミクスと関連付けられ、結果として、実践的効率を維持しながら生物学的原理に固執する学習戦略が生まれ、これらの発見は、SNNの汎用最適化戦略としてSSDPを位置づけ、脳内の人口ベース学習機構に対する新たな洞察を提供する。
関連論文リスト
- Extending Spike-Timing Dependent Plasticity to Learning Synaptic Delays [50.45313162890861]
シナプス接続強度と遅延を同時に学習するための新しい学習規則を導入する。
我々は、教師なし学習で訓練された分類のための広く使われているSNNモデルを拡張して、我々のアプローチを検証する。
その結果,提案手法は様々なテストシナリオにおいて常に優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-06-17T21:24:58Z) - Neural Models of Task Adaptation: A Tutorial on Spiking Networks for Executive Control [0.0]
このチュートリアルでは、タスクスイッチングのダイナミクスをシミュレートするスパイキングニューラルネットワーク(SNN)を構築するためのステップバイステップのアプローチを示す。
このモデルには、横方向の抑制、適応的なシナプス重み、生理的関連範囲における正確なパラメータ化など、生物学的に現実的な特徴が組み込まれている。
このチュートリアルに従うことで、認知過程や神経適応を研究するための生物学的にインスパイアされたSNNモデルを開発、拡張することができる。
論文 参考訳(メタデータ) (2025-03-05T00:44:34Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Developmental Plasticity-inspired Adaptive Pruning for Deep Spiking and Artificial Neural Networks [11.730984231143108]
発達的可塑性は、継続的な学習中に脳の構造を形成する際に顕著な役割を果たす。
ディープ人工知能ニューラルネットワーク(ANN)とスパイクニューラルネットワーク(SNN)の既存のネットワーク圧縮方法は、脳の発達する可塑性機構からほとんどインスピレーションを受けない。
本稿では, 樹状突起, シナプス, ニューロンの適応的発達的プルーニングからインスピレーションを得て, 塑性刺激による適応的プルーニング(DPAP)法を提案する。
論文 参考訳(メタデータ) (2022-11-23T05:26:51Z) - Modeling Associative Plasticity between Synapses to Enhance Learning of
Spiking Neural Networks [4.736525128377909]
Spiking Neural Networks(SNN)は、ニューラルネットワークの第3世代であり、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする。
本稿では,シナプス間の結合可塑性をモデル化し,頑健で効果的な学習機構を提案する。
本手法は静的および最先端のニューロモルフィックデータセット上での優れた性能を実現する。
論文 参考訳(メタデータ) (2022-07-24T06:12:23Z) - Increasing Liquid State Machine Performance with Edge-of-Chaos Dynamics
Organized by Astrocyte-modulated Plasticity [0.0]
液体状態機械(LSM)は勾配のバックプロパゲーションなしで内部重量を調整する。
近年の知見は、アストロサイトがシナプスの可塑性と脳のダイナミクスを調節していることを示唆している。
本稿では, 自己組織的近接臨界力学を用いて, 性能の低いニューロン-アストロサイト液状状態機械 (NALSM) を提案する。
論文 参考訳(メタデータ) (2021-10-26T23:04:40Z) - SpikePropamine: Differentiable Plasticity in Spiking Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)におけるシナプス可塑性と神経調節シナプス可塑性のダイナミクスを学習するための枠組みを導入する。
異なる可塑性で強化されたSNNは、時間的学習課題の集合を解決するのに十分であることを示す。
これらのネットワークは、高次元のロボット学習タスクで移動を生成できることも示されている。
論文 参考訳(メタデータ) (2021-06-04T19:29:07Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。