論文の概要: STAA-SNN: Spatial-Temporal Attention Aggregator for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2503.02689v1
- Date: Tue, 04 Mar 2025 15:02:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:17:42.690898
- Title: STAA-SNN: Spatial-Temporal Attention Aggregator for Spiking Neural Networks
- Title(参考訳): STAA-SNN:スパイクニューラルネットワークのための時空間アテンションアグリゲータ
- Authors: Tianqing Zhang, Kairong Yu, Xian Zhong, Hongwei Wang, Qi Xu, Qiang Zhang,
- Abstract要約: スパイキングニューラルネットワーク (SNN) はその生物学的妥当性とエネルギー効率のために注目されている。
しかしながら、SNNとArtificial Neural Networks(ANN)のパフォーマンスギャップは、SNNの普及を妨げる大きな課題である。
本研究では,空間的依存と時間的依存の両方を動的に対象とする空間的注意アグリゲータSNNフレームワークを提案する。
- 参考スコア(独自算出の注目度): 17.328954271272742
- License:
- Abstract: Spiking Neural Networks (SNNs) have gained significant attention due to their biological plausibility and energy efficiency, making them promising alternatives to Artificial Neural Networks (ANNs). However, the performance gap between SNNs and ANNs remains a substantial challenge hindering the widespread adoption of SNNs. In this paper, we propose a Spatial-Temporal Attention Aggregator SNN (STAA-SNN) framework, which dynamically focuses on and captures both spatial and temporal dependencies. First, we introduce a spike-driven self-attention mechanism specifically designed for SNNs. Additionally, we pioneeringly incorporate position encoding to integrate latent temporal relationships into the incoming features. For spatial-temporal information aggregation, we employ step attention to selectively amplify relevant features at different steps. Finally, we implement a time-step random dropout strategy to avoid local optima. As a result, STAA-SNN effectively captures both spatial and temporal dependencies, enabling the model to analyze complex patterns and make accurate predictions. The framework demonstrates exceptional performance across diverse datasets and exhibits strong generalization capabilities. Notably, STAA-SNN achieves state-of-the-art results on neuromorphic datasets CIFAR10-DVS, with remarkable performances of 97.14%, 82.05% and 70.40% on the static datasets CIFAR-10, CIFAR-100 and ImageNet, respectively. Furthermore, our model exhibits improved performance ranging from 0.33\% to 2.80\% with fewer time steps. The code for the model is available on GitHub.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、生物学的な可視性とエネルギー効率から大きな注目を集めており、ニューラルネットワーク(ANN)に代わる有望な選択肢となっている。
しかし、SNNとANNのパフォーマンスギャップは、SNNの普及を妨げる大きな課題である。
本稿では,空間的依存と時間的依存の両方を動的に対象とする空間的注意集約SNN(Spatial-Temporal Attention Aggregator SNN)フレームワークを提案する。
まず,SNNに特化して設計されたスパイク駆動型自己注意機構を提案する。
さらに、位置エンコーディングを先駆的に組み込んで、潜時関係を入ってくる特徴に組み込む。
空間的時間的情報集約には、異なるステップで関連する特徴を選択的に増幅するためにステップアテンションを用いる。
最後に,局所最適化を回避するために,時間段階のランダムドロップアウト戦略を実装した。
結果として、STAA-SNNは、空間的および時間的依存関係の両方を効果的にキャプチャし、複雑なパターンを分析し、正確な予測を可能にする。
このフレームワークは多様なデータセットにまたがる例外的なパフォーマンスを示し、強力な一般化能力を示す。
特に、STAA-SNNは、CIFAR-10、CIFAR-100、ImageNetの各静的データセットにおいて、97.14%、82.05%、70.40%の顕著なパフォーマンスで、ニューロモルフィックデータセットのCIFAR10-DVSの最先端結果を達成する。
さらに,より少ない時間ステップで0.33\%から2.80\%に改善された性能を示す。
モデルのコードはGitHubで公開されている。
関連論文リスト
- Spatial-Temporal Search for Spiking Neural Networks [32.937536365872745]
スパイキングニューラルネットワーク(SNN)は、次世代人工知能の潜在的な候補と考えられている。
空間次元と時間次元の両方でSNNを最適化するための微分可能なアプローチを提案する。
本手法は,96.43%,78.96%,70.21%の精度でCIFAR10/100とImageNetの分類性能を比較検討した。
論文 参考訳(メタデータ) (2024-10-24T09:32:51Z) - Enhancing SNN-based Spatio-Temporal Learning: A Benchmark Dataset and Cross-Modality Attention Model [30.66645039322337]
高品質なベンチマークデータセットは、ニューラルネットワーク(SNN)の発展に非常に重要である
しかし、SNNベースのクロスモーダル融合はまだ未定である。
本研究では,SNNの時間的特性をよりよく活用できるニューロモルフィックデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-21T06:59:04Z) - Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - Advancing Spiking Neural Networks towards Multiscale Spatiotemporal Interaction Learning [10.702093960098106]
スパイキングニューラルネットワーク(SNN)は、ニューラルネットワーク(ANN)のエネルギー効率の良い代替品として機能する
我々は、マルチスケールの時間的相互作用情報をキャプチャするスパイキング・マルチスケール・アテンション(SMA)モジュールを設計した。
われわれのアプローチは、主流のニューラルネットワークで最先端の結果を得た。
論文 参考訳(メタデータ) (2024-05-22T14:16:05Z) - Efficient and Effective Time-Series Forecasting with Spiking Neural Networks [47.371024581669516]
スパイキングニューラルネットワーク(SNN)は、時間データの複雑さを捉えるためのユニークな経路を提供する。
SNNを時系列予測に適用することは、効果的な時間的アライメントの難しさ、符号化プロセスの複雑さ、およびモデル選択のための標準化されたガイドラインの欠如により困難である。
本稿では,時間情報処理におけるスパイクニューロンの効率を活かした時系列予測タスクにおけるSNNのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:23:50Z) - Fully Spiking Denoising Diffusion Implicit Models [61.32076130121347]
スパイキングニューラルネットワーク(SNN)は、超高速のニューロモルフィックデバイス上で走る能力のため、かなりの注目を集めている。
本研究では,SNN内で拡散モデルを構築するために,拡散暗黙モデル (FSDDIM) を完全にスパイクする新しい手法を提案する。
提案手法は,最先端の完全スパイク生成モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-04T09:07:09Z) - Spikeformer: A Novel Architecture for Training High-Performance
Low-Latency Spiking Neural Network [6.8125324121155275]
静的データセットとニューロモルフィックデータセットの両方において,トランスフォーマーをベースとした新しいSNNであるSpikeformerを提案する。
注目すべきは、SpikeformerはImageNet上の他のSNNよりも大きなマージン(5%以上)で、DVS-GestureとImageNetでANNよりも3.1%、そして2.2%高いパフォーマンスである。
論文 参考訳(メタデータ) (2022-11-19T12:49:22Z) - Adaptive-SpikeNet: Event-based Optical Flow Estimation using Spiking
Neural Networks with Learnable Neuronal Dynamics [6.309365332210523]
ニューラルインスパイアされたイベント駆動処理でニューラルネットワーク(SNN)をスパイクすることで、非同期データを効率的に処理できる。
スパイク消滅問題を緩和するために,学習可能な神経力学を用いた適応型完全スパイキングフレームワークを提案する。
実験の結果,平均終端誤差(AEE)は最先端のANNと比較して平均13%減少した。
論文 参考訳(メタデータ) (2022-09-21T21:17:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。