論文の概要: Neural Dynamics Self-Attention for Spiking Transformers
- arxiv url: http://arxiv.org/abs/2603.19290v1
- Date: Mon, 09 Mar 2026 12:23:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-06 02:36:12.849355
- Title: Neural Dynamics Self-Attention for Spiking Transformers
- Title(参考訳): スパイキング変圧器のためのニューラルダイナミクス自己注意
- Authors: Dehao Zhang, Fukai Guo, Shuai Wang, Jingya Wang, Jieyuan Zhang, Yimeng Shan, Malu Zhang, Yang Yang, Haizhou Li,
- Abstract要約: TransformerアーキテクチャによるSNN(Spike Neural Networks)は、エネルギー効率とパフォーマンスのバランスをとるための、有望な経路を提供する。
既存のスパイキングトランスフォーマーは、(i)ニューラルネットワーク(ANN)と(ii)推論時の高メモリオーバーヘッドと比較して、大幅なパフォーマンスギャップがあるという2つの重要な課題に直面している。
本稿では、局所受容野を持つスパイキングニューロンを用いて、メモリ要求を減らしながら注意を計算するLRF-Dynを提案する。
- 参考スコア(独自算出の注目度): 59.57278823240336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Integrating Spiking Neural Networks (SNNs) with Transformer architectures offers a promising pathway to balance energy efficiency and performance, particularly for edge vision applications. However, existing Spiking Transformers face two critical challenges: (i) a substantial performance gap compared to their Artificial Neural Networks (ANNs) counterparts and (ii) high memory overhead during inference. Through theoretical analysis, we attribute both limitations to the Spiking Self-Attention (SSA) mechanism: the lack of locality bias and the need to store large attention matrices. Inspired by the localized receptive fields (LRF) and membrane-potential dynamics of biological visual neurons, we propose LRF-Dyn, which uses spiking neurons with localized receptive fields to compute attention while reducing memory requirements. Specifically, we introduce a LRF method into SSA to assign higher weights to neighboring regions, strengthening local modeling and improving performance. Building on this, we approximate the resulting attention computation via charge-fire-reset dynamics, eliminating explicit attention-matrix storage and reducing inference-time memory. Extensive experiments on visual tasks confirm that our method reduces memory overhead while delivering significant performance improvements. These results establish it as a key unit for achieving energy-efficient Spiking Transformers.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)とTransformerアーキテクチャを統合することで、特にエッジビジョンアプリケーションにおいて、エネルギー効率とパフォーマンスのバランスをとる上で有望な経路を提供する。
しかし、既存のスパイキングトランスフォーマーは2つの重要な課題に直面している。
(i)Artificial Neural Networks(ANN)と同等の性能差
(ii)推論時のメモリオーバーヘッドが高いこと。
理論的分析を通じて、局所性バイアスの欠如と大きな注意行列の保存の必要性という、スパイキング自己注意機構(SSA)の2つの限界を考察した。
生体視覚ニューロンの局所受容野(LRF)と膜電位ダイナミクスに着想を得て,局所受容野を持つスパイキングニューロンを用いて,記憶要求を低減しつつ注意を計算できるLRF-Dynを提案する。
具体的には, SSA に LRF 法を導入し, 近隣地域への重み付けを行い, 局所モデリングを強化し, 性能向上を図る。
これに基づいて、チャージ・ファイア・リセット・ダイナミクスによるアテンション計算を近似し、明示的なアテンション・マトリクス記憶を排除し、推論時メモリを削減する。
視覚的タスクに関する大規模な実験により,本手法はメモリオーバーヘッドを低減し,大幅な性能向上を実現する。
これらの結果はエネルギー効率の高いスパイキング変換器を実現するための鍵単位として確立されている。
関連論文リスト
- General Self-Prediction Enhancement for Spiking Neurons [71.01912385372577]
スパイキングニューラルネットワーク(SNN)は、イベント駆動のスパース計算によって非常にエネルギー効率が良いが、そのトレーニングは、性能、効率、生物学的妥当性の非微分可能性とトレードオフによって困難である。
本稿では,その入力出力履歴から内部予測電流を生成し,膜電位を変調する自己予測強化スパイキングニューロン法を提案する。
この設計には2つの利点があり、失明した勾配を緩和し、トレーニングの安定性と精度を高める連続的な勾配経路を作成し、また遠位樹状突起変調とエラー駆動のシナプス塑性に類似した生物学的原理と整合する。
論文 参考訳(メタデータ) (2026-01-29T15:08:48Z) - Spiking Meets Attention: Efficient Remote Sensing Image Super-Resolution with Attention Spiking Neural Networks [86.28783985254431]
従来の人工ニューラルネットワーク(ANN)の代替手段としてスパイキングニューラルネットワーク(SNN)が登場
本稿では,AID,DOTA,DIORなどのリモートセンシングベンチマークにおいて,最先端の性能を実現するSpikeSRを提案する。
論文 参考訳(メタデータ) (2025-03-06T09:06:06Z) - SpikingResformer: Bridging ResNet and Vision Transformer in Spiking Neural Networks [22.665939536001797]
そこで本研究では,DSSA(Dual Spike Self-Attention)という新たな自己注意機構を提案する。
本稿では,DSSAに基づく新しいスパイキングビジョントランスフォーマーアーキテクチャであるSpikeResformerを提案する。
SpikingResformerは、他のスパイキングビジョン変換器よりも少ないパラメータと少ないエネルギー消費で高い精度を達成できることを示す。
論文 参考訳(メタデータ) (2024-03-21T11:16:42Z) - EMN: Brain-inspired Elastic Memory Network for Quick Domain Adaptive Feature Mapping [57.197694698750404]
本稿では,特徴と予測のマッピングを高速に微調整するための,勾配のない新しいElastic Memory Networkを提案する。
EMNはランダムに結合したニューロンを用いて特徴とラベルの関連を記憶し、ネットワーク内のシグナルはインパルスとして伝播する。
EMNは、従来のドメイン適応手法の1%以下のタイミングコストしか必要とせず、最大10%の性能向上を達成することができる。
論文 参考訳(メタデータ) (2024-02-04T09:58:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。