論文の概要: Synchrony-Gated Plasticity with Dopamine Modulation for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2512.07194v1
- Date: Mon, 08 Dec 2025 06:10:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.732737
- Title: Synchrony-Gated Plasticity with Dopamine Modulation for Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークのためのドーパミン変調によるシンクロニーゲート塑性
- Authors: Yuchen Tian, Samuel Tensingh, Jason Eshraghian, Nhan Duy Truong, Omid Kavehei,
- Abstract要約: Dopamine-Modulated Spike-Synchrony-Dependent Plasticity (DA-SSDP) は、損失に敏感な同期型規則である。
DA-SSDPは、バッチレベルでスパイクパターンを同期メトリックに凝縮する。
- 参考スコア(独自算出の注目度): 6.085945372100414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While surrogate backpropagation proves useful for training deep spiking neural networks (SNNs), incorporating biologically inspired local signals on a large scale remains challenging. This difficulty stems primarily from the high memory demands of maintaining accurate spike-timing logs and the potential for purely local plasticity adjustments to clash with the supervised learning goal. To effectively leverage local signals derived from spiking neuron dynamics, we introduce Dopamine-Modulated Spike-Synchrony-Dependent Plasticity (DA-SSDP), a synchrony-based rule that is sensitive to loss and brings a synchrony-based local learning signal to the model. DA-SSDP condenses spike patterns into a synchrony metric at the batch level. An initial brief warm-up phase assesses its relationship to the task loss and sets a fixed gate that subsequently adjusts the local update's magnitude. In cases where synchrony proves unrelated to the task, the gate settles at one, simplifying DA-SSDP to a basic two-factor synchrony mechanism that delivers minor weight adjustments driven by concurrent spike firing and a Gaussian latency function. These small weight updates are only added to the network`s deeper layers following the backpropagation phase, and our tests showed this simplified version did not degrade performance and sometimes gave a small accuracy boost, serving as a regularizer during training. The rule stores only binary spike indicators and first-spike latencies with a Gaussian kernel. Without altering the model structure or optimization routine, evaluations on benchmarks like CIFAR-10 (+0.42\%), CIFAR-100 (+0.99\%), CIFAR10-DVS (+0.1\%), and ImageNet-1K (+0.73\%) demonstrated consistent accuracy gains, accompanied by a minor increase in computational overhead. Our code is available at https://github.com/NeuroSyd/DA-SSDP.
- Abstract(参考訳): 代理バックプロパゲーションはディープスパイクニューラルネットワーク(SNN)のトレーニングに有用であるが、生物学的にインスピレーションを受けた局所的な信号を大規模に組み込むことは依然として困難である。
この難しさは主に、正確なスパイクチューニングログを維持するための高いメモリ要求と、教師付き学習目標と衝突する純粋に局所的な塑性調整の可能性に起因している。
スパイキングニューロンのダイナミックスから得られる局所的な信号を効果的に活用するために、損失に敏感な同期型規則であるDopamine-Modulated Spike-Synchrony-Dependent Plasticity (DA-SSDP)を導入する。
DA-SSDPは、バッチレベルでスパイクパターンを同期メトリックに凝縮する。
最初の簡単なウォームアップフェーズは、タスク損失との関係を評価し、固定ゲートを設定し、その後、ローカル更新の規模を調整する。
同期がタスクと無関係である場合、ゲートは1つに収まり、DA-SSDPを2要素同期機構に単純化する。
これらの小さな重み更新は、バックプロパゲーションフェーズの後、ネットワークの深い層にのみ追加され、我々のテストでは、この単純化版は性能を低下させることなく、トレーニング中に正規化として機能する、小さな精度の向上が見られた。
このルールは、二進スパイクインジケータと第一スパイクレイテンシのみをガウスカーネルに格納する。
モデル構造や最適化ルーチンを変更することなく、CIFAR-10 (+0.42\%)、CIFAR-100 (+0.99\%)、CIFAR10-DVS (+0.1\%)、ImageNet-1K (+0.73\%) などのベンチマークでは、計算オーバーヘッドがわずかに増加した。
私たちのコードはhttps://github.com/NeuroSyd/DA-SSDP.comで利用可能です。
関連論文リスト
- DelRec: learning delays in recurrent spiking neural networks [44.373421535679476]
スパイキングニューラルネットワーク(SNN)は、従来の実数値ディープラーニングモデルのバイオインスパイアされた代替品である。
DelRecは、リカレントスパイキング層における軸索またはシナプス遅延をトレーニングする最初のSGLベースの方法である。
以上の結果から,SNNの時間的処理には繰り返し遅延が不可欠であることが示唆された。
論文 参考訳(メタデータ) (2025-09-29T14:38:57Z) - Network-Optimised Spiking Neural Network for Event-Driven Networking [2.5941336499463383]
スパイキングニューラルネットワークは、異常検出、ローカルルーティング制御、エッジでの混雑管理など、時間クリティカルなネットワークタスクに適したイベント駆動型計算を提供する。
本稿では,正規化された待ち行列の占有状態と回復資源を符号化したコンパクトな2変数ユニットであるNetwork-Optimized Spiking (NOS)を紹介する。
我々は、データ駆動初期化、リセットシャープネスに基づくホモトピーによる代理段階トレーニング、リソース制約されたデプロイメントのための境界のトポロジによる明確な安定性チェックのガイダンスを提供する。
論文 参考訳(メタデータ) (2025-09-27T22:31:24Z) - Efficient Memristive Spiking Neural Networks Architecture with Supervised In-Situ STDP Method [0.0]
時間的スパイクエンコーディングを備えたメムリスタベースのスパイキングニューラルネットワーク(SNN)は、超低エネルギー計算を可能にする。
本稿では,新しい教師付きin-situ学習アルゴリズムを用いて学習した回路レベルのメムリシブスパイクニューラルネットワーク(SNN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-07-28T17:09:48Z) - NeRF-based CBCT Reconstruction needs Normalization and Initialization [53.58395475423445]
NeRFベースの手法は、ハッシュエンコーダとニューラルネットワークという2つの主要なコンポーネント間の局所的な訓練ミスマッチに悩まされる。
特徴整合性を高め、ミスマッチを緩和する正規化ハッシュを導入する。
ニューラルネットワークは早期トレーニング中に安定性が向上し、より高速な収束と再構築性能が向上する。
論文 参考訳(メタデータ) (2025-06-24T16:01:45Z) - Learning with Spike Synchrony in Spiking Neural Networks [3.8506283985103447]
スパイキングニューラルネットワーク(SNN)は、生物学的神経力学を模倣してエネルギー効率の高い計算を約束する。
本稿では,スパイクタイミングではなく神経発射の度合いに基づいてシナプス重みを調整する訓練手法として,スパイク同期依存塑性(SSDP)を導入する。
論文 参考訳(メタデータ) (2025-04-14T04:01:40Z) - Efficiently Training Time-to-First-Spike Spiking Neural Networks from Scratch [39.05124192217359]
スパイキングニューラルネットワーク(SNN)はエネルギー効率の良いニューロモルフィックハードウェアに適している。
Time-to-First-Spike(TTFS)コーディングは、ニューロン毎の1回のスパイクを使用し、極端に間隔とエネルギー効率を提供するが、スパース発射による不安定なトレーニングと低い精度に悩まされている。
本稿では,パラメータ正規化,トレーニング正規化,時間出力復号化,プール層再評価を取り入れたトレーニングフレームワークを提案する。
実験では、M上のTTFS SNNのトレーニングを安定化し、加速し、レイテンシを低減し、最先端の精度を達成する。
論文 参考訳(メタデータ) (2024-10-31T04:14:47Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Rapid training of deep neural networks without skip connections or
normalization layers using Deep Kernel Shaping [46.083745557823164]
我々は、深層ネットワークに存在する主な病理組織を特定し、それらが高速にトレーニングされ、目に見えないデータに一般化されるのを防ぐ。
本稿では,ネットワークのカーネル関数の「形状」を慎重に制御することで,これらを回避する方法を示す。
論文 参考訳(メタデータ) (2021-10-05T00:49:36Z) - Supervised Learning in Temporally-Coded Spiking Neural Networks with
Approximate Backpropagation [0.021506382989223777]
本稿では,時間的に符号化された多層スパイキングネットワークのための教師付き学習手法を提案する。
この方法はバックプロパゲーションを模倣する強化信号を用いるが、計算集約性ははるかに低い。
シミュレーションされたMNIST手書き桁分類では、このルールで訓練された2層ネットワークは、同等のバックプロパゲーションベースの非スパイキングネットワークの性能と一致した。
論文 参考訳(メタデータ) (2020-07-27T03:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。