論文の概要: Supervised Spike Agreement Dependent Plasticity for Fast Local Learning in Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2601.08526v1
- Date: Tue, 13 Jan 2026 13:09:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.209062
- Title: Supervised Spike Agreement Dependent Plasticity for Fast Local Learning in Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークにおける高速局所学習のためのスパイクコンセンサス依存塑性の監視
- Authors: Gouri Lakshmi S, Athira Chandrasekharan, Harshit Kumar, Muhammed Sahad E, Bikas C Das, Saptarshi Bej,
- Abstract要約: Spike Agreement-Dependent Plasticity (SADP) の教師付き拡張について紹介する。
SADPは、Cohen's kappaのような人口レベルの合意指標とペアワイズスパイクタイムの比較を置き換えている。
MNIST、Fashion-MNIST、CIFAR-10、生体画像分類タスクの実験は、競争性能と高速収束を示す。
- 参考スコア(独自算出の注目度): 6.376927936764407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spike-Timing-Dependent Plasticity (STDP) provides a biologically grounded learning rule for spiking neural networks (SNNs), but its reliance on precise spike timing and pairwise updates limits fast learning of weights. We introduce a supervised extension of Spike Agreement-Dependent Plasticity (SADP), which replaces pairwise spike-timing comparisons with population-level agreement metrics such as Cohen's kappa. The proposed learning rule preserves strict synaptic locality, admits linear-time complexity, and enables efficient supervised learning without backpropagation, surrogate gradients, or teacher forcing. We integrate supervised SADP within hybrid CNN-SNN architectures, where convolutional encoders provide compact feature representations that are converted into Poisson spike trains for agreement-driven learning in the SNN. Extensive experiments on MNIST, Fashion-MNIST, CIFAR-10, and biomedical image classification tasks demonstrate competitive performance and fast convergence. Additional analyses show stable performance across broad hyperparameter ranges and compatibility with device-inspired synaptic update dynamics. Together, these results establish supervised SADP as a scalable, biologically grounded, and hardware-aligned learning paradigm for spiking neural networks.
- Abstract(参考訳): Spike-Timing-Dependent Plasticity (STDP)は、ニューラルネットワーク(SNN)をスパイクするための生物学的基盤付き学習ルールを提供する。
本稿では,コーエンのカッパのような集団レベルの合意指標と相互にスパイク・タイピングの比較を置き換えた,スパイク・コンセンサス・依存塑性(SADP)の教師付き拡張を導入する。
提案した学習規則は、厳密なシナプス的局所性を保持し、線形時間的複雑性を認め、バックプロパゲーションや代理勾配、教師の強制を伴わずに効率的な教師付き学習を可能にする。
我々はハイブリッドCNN-SNNアーキテクチャに教師付きSADPを統合する。このアーキテクチャでは、畳み込みエンコーダがコンパクトな特徴表現を提供し、SNNにおける合意駆動学習のためにポアソンスパイクトレインに変換される。
MNIST、Fashion-MNIST、CIFAR-10、生体画像分類タスクに関する大規模な実験は、競争性能と高速収束を実証している。
追加分析では、幅広いハイパーパラメータ範囲で安定した性能を示し、デバイスにインスパイアされたシナプス更新ダイナミクスとの互換性を示す。
これらの結果は、ニューラルネットワークをスパイクするためのスケーラブルで生物学的基盤があり、ハードウェアに整合した学習パラダイムとして、教師付きSADPを確立している。
関連論文リスト
- PredNext: Explicit Cross-View Temporal Prediction for Unsupervised Learning in Spiking Neural Networks [70.1286354746363]
Spiking Neural Networks (SNN)は、教師なし表現学習のための自然なプラットフォームを提供する。
現在の監視されていないSNNは、浅いアーキテクチャや局所的な可塑性ルールを採用しており、長期の時間的依存関係をモデル化する能力を制限する。
我々は,横断的なステップ予測とクリップ予測を通じて時間的関係を明示的にモデル化するPredNextを提案する。
論文 参考訳(メタデータ) (2025-09-29T14:27:58Z) - Spike Agreement Dependent Plasticity: A scalable Bio-Inspired learning paradigm for Spiking Neural Networks [3.9214831838299595]
スパイキングニューラルネットワーク(SNN)のための生物学的にインスパイアされたシナプス学習ルールである、スパイクコンセンサス依存塑性(SADP)を紹介する。
SADPは、正確なスパイクペアのタイミングではなく、シナプス以前のスパイク列車とポストシナプス時代のスパイク列車の合意に依存している。
我々のフレームワークは, 生物学的妥当性と計算スケーラビリティのギャップを埋め, ニューロモルフィックシステムの学習機構を提供する。
論文 参考訳(メタデータ) (2025-08-22T08:40:42Z) - Extending Spike-Timing Dependent Plasticity to Learning Synaptic Delays [50.45313162890861]
シナプス接続強度と遅延を同時に学習するための新しい学習規則を導入する。
我々は、教師なし学習で訓練された分類のための広く使われているSNNモデルを拡張して、我々のアプローチを検証する。
その結果,提案手法は様々なテストシナリオにおいて常に優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-06-17T21:24:58Z) - Learning Delays Through Gradients and Structure: Emergence of Spatiotemporal Patterns in Spiking Neural Networks [0.06752396542927405]
学習可能なシナプス遅延を2つのアプローチで組み込んだスパイキングニューラルネットワーク(SNN)モデルを提案する。
後者のアプローチでは、ネットワークは接続を選択してプーンし、スパース接続設定の遅延を最適化する。
本研究では,時間的データ処理のための効率的なSNNモデルを構築するために,遅延学習と動的プルーニングを組み合わせる可能性を示す。
論文 参考訳(メタデータ) (2024-07-07T11:55:48Z) - Neuromorphic Online Learning for Spatiotemporal Patterns with a
Forward-only Timeline [5.094970748243019]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、高エネルギー効率のバイオプレースブルコンピューティングモデルである。
BPTT(Back Proagation Through Time)は、伝統的にSNNのトレーニングに使用される。
SNNのオンライン学習に特化して設計されたSOLSA(Spatiotemporal Online Learning for Synaptic Adaptation)を提案する。
論文 参考訳(メタデータ) (2023-07-21T02:47:03Z) - AdaSAM: Boosting Sharpness-Aware Minimization with Adaptive Learning
Rate and Momentum for Training Deep Neural Networks [76.90477930208982]
シャープネス認識(SAM)は、ディープニューラルネットワークのトレーニングにおいて、より一般的なものにするため、広範囲に研究されている。
AdaSAMと呼ばれる適応的な学習摂動と運動量加速度をSAMに統合することはすでに検討されている。
いくつかのNLPタスクにおいて,SGD,AMS,SAMsGradと比較して,AdaSAMが優れた性能を発揮することを示す実験を行った。
論文 参考訳(メタデータ) (2023-03-01T15:12:42Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - An Unsupervised STDP-based Spiking Neural Network Inspired By
Biologically Plausible Learning Rules and Connections [10.188771327458651]
スパイク刺激依存性可塑性(STDP)は脳の一般的な学習規則であるが、STDPだけで訓練されたスパイクニューラルネットワーク(SNN)は非効率であり、性能が良くない。
我々は適応的なシナプスフィルタを設計し、SNNの表現能力を高めるために適応的なスパイキングしきい値を導入する。
我々のモデルは、MNISTおよびFashionMNISTデータセットにおける教師なしSTDPベースのSNNの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-06T14:53:32Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。