論文の概要: SDSNN: A Single-Timestep Spiking Neural Network with Self-Dropping Neuron and Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2508.10913v1
- Date: Fri, 01 Aug 2025 03:41:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-24 10:27:26.449357
- Title: SDSNN: A Single-Timestep Spiking Neural Network with Self-Dropping Neuron and Bayesian Optimization
- Title(参考訳): SDSNN: 自己ドローピングニューロンとベイズ最適化を備えた単一時間スパイクニューラルネットワーク
- Authors: Changqing Xu, Buxuan Song, Yi Liu, Xinfang Liao, Wenbin Zheng, Yintang Yang,
- Abstract要約: Spiking Neural Networks (SNN)は、生物にインスパイアされた新しい計算モデルである。
SNNは離散スパイク信号を通じて情報を伝達し、計算エネルギー消費を大幅に削減する。
本稿では,1段階の計算エネルギー消費を削減し,精度を向上させるシングルステップSNNを提案する。
- 参考スコア(独自算出の注目度): 3.939441643960418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs), as an emerging biologically inspired computational model, demonstrate significant energy efficiency advantages due to their event-driven information processing mechanism. Compared to traditional Artificial Neural Networks (ANNs), SNNs transmit information through discrete spike signals, which substantially reduces computational energy consumption through their sparse encoding approach. However, the multi-timestep computation model significantly increases inference latency and energy, limiting the applicability of SNNs in edge computing scenarios. We propose a single-timestep SNN, which enhances accuracy and reduces computational energy consumption in a single timestep by optimizing spike generation and temporal parameters. We design a Self-Dropping Neuron mechanism, which enhances information-carrying capacity through dynamic threshold adjustment and selective spike suppression. Furthermore, we employ Bayesian optimization to globally search for time parameters and obtain an efficient inference mode with a single time step. Experimental results on the Fashion-MNIST, CIFAR-10, and CIFAR-100 datasets demonstrate that, compared to traditional multi-timestep SNNs employing the Leaky Integrate-and-Fire (LIF) model, our method achieves classification accuracies of 93.72%, 92.20%, and 69.45%, respectively, using only single-timestep spikes, while maintaining comparable or even superior accuracy. Additionally, it reduces energy consumption by 56%, 21%, and 22%, respectively.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、生体にインスパイアされた計算モデルとして、イベント駆動情報処理機構によるエネルギー効率の大幅な向上を示す。
従来のニューラルネットワーク(ANN)と比較して、SNNは離散スパイク信号を通じて情報を伝達し、スパース符号化アプローチによる計算エネルギー消費を大幅に削減する。
しかし、マルチステップ計算モデルにより、予測遅延とエネルギーが大幅に増加し、エッジコンピューティングシナリオにおけるSNNの適用性が制限される。
本研究では、スパイク生成と時間パラメータを最適化することにより、精度を高め、単一の時間ステップにおける計算エネルギー消費を低減するシングルタイムステップSNNを提案する。
本研究では,動的しきい値調整と選択的スパイク抑制により情報搬送能力を向上させるセルフドローピングニューロン機構を設計する。
さらに、ベイズ最適化を用いて、グローバルに時間パラメータを探索し、単一の時間ステップで効率的な推論モードを得る。
Fashion-MNIST, CIFAR-10, CIFAR-100データセットによる実験結果から,Leaky Integrate-and-Fire(LIF)モデルを用いた従来のマルチタイムステップSNNと比較して,同程度の精度で,それぞれ93.72%,92.20%,69.45%の分類精度を達成できた。
さらに、エネルギー消費をそれぞれ56%、21%、22%削減する。
関連論文リスト
- TS-SNN: Temporal Shift Module for Spiking Neural Networks [12.35332483263129]
スパイキングニューラルネットワーク(SNN)はその生物学的妥当性とエネルギー効率が認められている。
スパイキングニューラルネットワーク(TS-SNN)のためのテンポラルシフトモジュールを導入し,過去,現在,将来のスパイク機能を統合するために,新しいテンポラルシフトモジュール(TS)を組み込んだ。
TS-SNNは、CIFAR-10 (96.72%)、CIFAR-100 (80.28%)、ImageNet (70.61%)のようなベンチマークで、低エネルギー消費を維持しながら、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-07T06:34:34Z) - Scalable Mechanistic Neural Networks for Differential Equations and Machine Learning [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
計算時間と空間複雑度はそれぞれ、列長に関して立方体と二次体から線形へと減少する。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - Efficient and Effective Time-Series Forecasting with Spiking Neural Networks [47.371024581669516]
スパイキングニューラルネットワーク(SNN)は、時間データの複雑さを捉えるためのユニークな経路を提供する。
SNNを時系列予測に適用することは、効果的な時間的アライメントの難しさ、符号化プロセスの複雑さ、およびモデル選択のための標準化されたガイドラインの欠如により困難である。
本稿では,時間情報処理におけるスパイクニューロンの効率を活かした時系列予測タスクにおけるSNNのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:23:50Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - Fully Spiking Denoising Diffusion Implicit Models [61.32076130121347]
スパイキングニューラルネットワーク(SNN)は、超高速のニューロモルフィックデバイス上で走る能力のため、かなりの注目を集めている。
本研究では,SNN内で拡散モデルを構築するために,拡散暗黙モデル (FSDDIM) を完全にスパイクする新しい手法を提案する。
提案手法は,最先端の完全スパイク生成モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-04T09:07:09Z) - Input-Aware Dynamic Timestep Spiking Neural Networks for Efficient
In-Memory Computing [7.738130109655604]
Spiking Neural Networks (SNN) はスパースとバイナリスパイク情報を処理できることから、広く研究の関心を集めている。
IMCハードウェアで使用される時間ステップの数に応じて,SNNのエネルギーコストとレイテンシが線形にスケールすることを示す。
入力対応動的時間ステップSNN(DT-SNN)を提案し,SNNの効率を最大化する。
論文 参考訳(メタデータ) (2023-05-27T03:01:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。