論文の概要: TS-SNN: Temporal Shift Module for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2505.04165v2
- Date: Thu, 08 May 2025 08:17:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 13:13:47.831673
- Title: TS-SNN: Temporal Shift Module for Spiking Neural Networks
- Title(参考訳): TS-SNN: ニューラルネットワークスパイクのための時間シフトモジュール
- Authors: Kairong Yu, Tianqing Zhang, Qi Xu, Gang Pan, Hongwei Wang,
- Abstract要約: スパイキングニューラルネットワーク(SNN)はその生物学的妥当性とエネルギー効率が認められている。
スパイキングニューラルネットワーク(TS-SNN)のためのテンポラルシフトモジュールを導入し,過去,現在,将来のスパイク機能を統合するために,新しいテンポラルシフトモジュール(TS)を組み込んだ。
TS-SNNは、CIFAR-10 (96.72%)、CIFAR-100 (80.28%)、ImageNet (70.61%)のようなベンチマークで、低エネルギー消費を維持しながら、最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 12.35332483263129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) are increasingly recognized for their biological plausibility and energy efficiency, positioning them as strong alternatives to Artificial Neural Networks (ANNs) in neuromorphic computing applications. SNNs inherently process temporal information by leveraging the precise timing of spikes, but balancing temporal feature utilization with low energy consumption remains a challenge. In this work, we introduce Temporal Shift module for Spiking Neural Networks (TS-SNN), which incorporates a novel Temporal Shift (TS) module to integrate past, present, and future spike features within a single timestep via a simple yet effective shift operation. A residual combination method prevents information loss by integrating shifted and original features. The TS module is lightweight, requiring only one additional learnable parameter, and can be seamlessly integrated into existing architectures with minimal additional computational cost. TS-SNN achieves state-of-the-art performance on benchmarks like CIFAR-10 (96.72\%), CIFAR-100 (80.28\%), and ImageNet (70.61\%) with fewer timesteps, while maintaining low energy consumption. This work marks a significant step forward in developing efficient and accurate SNN architectures.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、その生物学的妥当性とエネルギー効率がますます認識され、ニューロモルフィックコンピューティング応用におけるニューラルネットワーク(ANN)の強力な代替品として位置づけられている。
SNNはスパイクの正確なタイミングを利用して時間情報を本質的に処理するが、時間的特徴利用と低エネルギー消費のバランスは依然として課題である。
本研究では、スパイキングニューラルネットワーク(TS-SNN)のためのテンポラルシフトモジュールを導入し、新しいテンポラルシフト(TS)モジュールを組み込むことにより、過去、現在、将来のスパイク機能を単一のタイムステップに統合する。
残余結合法は、シフトした特徴とオリジナル特徴を統合することにより、情報損失を防止する。
TSモジュールは軽量で、学習可能なパラメータを1つだけ必要としており、計算コストを最小限に抑えて既存のアーキテクチャにシームレスに統合することができる。
TS-SNNは、CIFAR-10 (96.72\%)、CIFAR-100 (80.28\%)、ImageNet (70.61\%)のようなベンチマークで、低消費電力を維持しながら、最先端のパフォーマンスを達成する。
この作業は、効率的で正確なSNNアーキテクチャを開発する上で、大きな前進となる。
関連論文リスト
- STAA-SNN: Spatial-Temporal Attention Aggregator for Spiking Neural Networks [17.328954271272742]
スパイキングニューラルネットワーク (SNN) はその生物学的妥当性とエネルギー効率のために注目されている。
しかしながら、SNNとArtificial Neural Networks(ANN)のパフォーマンスギャップは、SNNの普及を妨げる大きな課題である。
本研究では,空間的依存と時間的依存の両方を動的に対象とする空間的注意アグリゲータSNNフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-04T15:02:32Z) - Scalable Mechanistic Neural Networks for Differential Equations and Machine Learning [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
計算時間と空間複雑度はそれぞれ、列長に関して立方体と二次体から線形へと減少する。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - Adaptive-SpikeNet: Event-based Optical Flow Estimation using Spiking
Neural Networks with Learnable Neuronal Dynamics [6.309365332210523]
ニューラルインスパイアされたイベント駆動処理でニューラルネットワーク(SNN)をスパイクすることで、非同期データを効率的に処理できる。
スパイク消滅問題を緩和するために,学習可能な神経力学を用いた適応型完全スパイキングフレームワークを提案する。
実験の結果,平均終端誤差(AEE)は最先端のANNと比較して平均13%減少した。
論文 参考訳(メタデータ) (2022-09-21T21:17:56Z) - Can Deep Neural Networks be Converted to Ultra Low-Latency Spiking
Neural Networks? [3.2108350580418166]
スパイクニューラルネットワーク(SNN)は、時間とともに分散されたバイナリスパイクを介して動作する。
SNNのためのSOTAトレーニング戦略は、非スパイキングディープニューラルネットワーク(DNN)からの変換を伴う
そこで本研究では,DNNと変換SNNの誤差を最小限に抑えながら,これらの分布を正確にキャプチャする新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:47:45Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。