論文の概要: SDSNN: A Single-Timestep Spiking Neural Network with Self-Dropping Neuron and Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2508.10913v1
- Date: Fri, 01 Aug 2025 03:41:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-24 10:27:26.449357
- Title: SDSNN: A Single-Timestep Spiking Neural Network with Self-Dropping Neuron and Bayesian Optimization
- Title(参考訳): SDSNN: 自己ドローピングニューロンとベイズ最適化を備えた単一時間スパイクニューラルネットワーク
- Authors: Changqing Xu, Buxuan Song, Yi Liu, Xinfang Liao, Wenbin Zheng, Yintang Yang,
- Abstract要約: Spiking Neural Networks (SNN)は、生物にインスパイアされた新しい計算モデルである。
SNNは離散スパイク信号を通じて情報を伝達し、計算エネルギー消費を大幅に削減する。
本稿では,1段階の計算エネルギー消費を削減し,精度を向上させるシングルステップSNNを提案する。
- 参考スコア(独自算出の注目度): 3.939441643960418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs), as an emerging biologically inspired computational model, demonstrate significant energy efficiency advantages due to their event-driven information processing mechanism. Compared to traditional Artificial Neural Networks (ANNs), SNNs transmit information through discrete spike signals, which substantially reduces computational energy consumption through their sparse encoding approach. However, the multi-timestep computation model significantly increases inference latency and energy, limiting the applicability of SNNs in edge computing scenarios. We propose a single-timestep SNN, which enhances accuracy and reduces computational energy consumption in a single timestep by optimizing spike generation and temporal parameters. We design a Self-Dropping Neuron mechanism, which enhances information-carrying capacity through dynamic threshold adjustment and selective spike suppression. Furthermore, we employ Bayesian optimization to globally search for time parameters and obtain an efficient inference mode with a single time step. Experimental results on the Fashion-MNIST, CIFAR-10, and CIFAR-100 datasets demonstrate that, compared to traditional multi-timestep SNNs employing the Leaky Integrate-and-Fire (LIF) model, our method achieves classification accuracies of 93.72%, 92.20%, and 69.45%, respectively, using only single-timestep spikes, while maintaining comparable or even superior accuracy. Additionally, it reduces energy consumption by 56%, 21%, and 22%, respectively.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、生体にインスパイアされた計算モデルとして、イベント駆動情報処理機構によるエネルギー効率の大幅な向上を示す。
従来のニューラルネットワーク(ANN)と比較して、SNNは離散スパイク信号を通じて情報を伝達し、スパース符号化アプローチによる計算エネルギー消費を大幅に削減する。
しかし、マルチステップ計算モデルにより、予測遅延とエネルギーが大幅に増加し、エッジコンピューティングシナリオにおけるSNNの適用性が制限される。
本研究では、スパイク生成と時間パラメータを最適化することにより、精度を高め、単一の時間ステップにおける計算エネルギー消費を低減するシングルタイムステップSNNを提案する。
本研究では,動的しきい値調整と選択的スパイク抑制により情報搬送能力を向上させるセルフドローピングニューロン機構を設計する。
さらに、ベイズ最適化を用いて、グローバルに時間パラメータを探索し、単一の時間ステップで効率的な推論モードを得る。
Fashion-MNIST, CIFAR-10, CIFAR-100データセットによる実験結果から,Leaky Integrate-and-Fire(LIF)モデルを用いた従来のマルチタイムステップSNNと比較して,同程度の精度で,それぞれ93.72%,92.20%,69.45%の分類精度を達成できた。
さらに、エネルギー消費をそれぞれ56%、21%、22%削減する。
関連論文リスト
- Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - TS-SNN: Temporal Shift Module for Spiking Neural Networks [12.35332483263129]
スパイキングニューラルネットワーク(SNN)はその生物学的妥当性とエネルギー効率が認められている。
スパイキングニューラルネットワーク(TS-SNN)のためのテンポラルシフトモジュールを導入し,過去,現在,将来のスパイク機能を統合するために,新しいテンポラルシフトモジュール(TS)を組み込んだ。
TS-SNNは、CIFAR-10 (96.72%)、CIFAR-100 (80.28%)、ImageNet (70.61%)のようなベンチマークで、低エネルギー消費を維持しながら、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-07T06:34:34Z) - Scalable Mechanistic Neural Networks for Differential Equations and Machine Learning [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
計算時間と空間複雑度はそれぞれ、列長に関して立方体と二次体から線形へと減少する。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - Direct Training Needs Regularisation: Anytime Optimal Inference Spiking Neural Network [23.434563009813218]
スパイキングニューラルネットワーク(SNN)は,次世代のニューラルネットワーク(ANN)として認識される
空間時間正規化(STR)と呼ばれる新しい正規化手法を導入する。
STRは各段階におけるスパイクの強さと膜電位の比を調節する。
これは、トレーニング中の空間的および時間的パフォーマンスを効果的にバランスさせ、最終的にはAnytime Optimal Inference (AOI) SNNとなる。
論文 参考訳(メタデータ) (2024-04-15T15:57:01Z) - Efficient and Effective Time-Series Forecasting with Spiking Neural Networks [47.371024581669516]
スパイキングニューラルネットワーク(SNN)は、時間データの複雑さを捉えるためのユニークな経路を提供する。
SNNを時系列予測に適用することは、効果的な時間的アライメントの難しさ、符号化プロセスの複雑さ、およびモデル選択のための標準化されたガイドラインの欠如により困難である。
本稿では,時間情報処理におけるスパイクニューロンの効率を活かした時系列予測タスクにおけるSNNのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:23:50Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - Fully Spiking Denoising Diffusion Implicit Models [61.32076130121347]
スパイキングニューラルネットワーク(SNN)は、超高速のニューロモルフィックデバイス上で走る能力のため、かなりの注目を集めている。
本研究では,SNN内で拡散モデルを構築するために,拡散暗黙モデル (FSDDIM) を完全にスパイクする新しい手法を提案する。
提案手法は,最先端の完全スパイク生成モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-04T09:07:09Z) - Input-Aware Dynamic Timestep Spiking Neural Networks for Efficient
In-Memory Computing [7.738130109655604]
Spiking Neural Networks (SNN) はスパースとバイナリスパイク情報を処理できることから、広く研究の関心を集めている。
IMCハードウェアで使用される時間ステップの数に応じて,SNNのエネルギーコストとレイテンシが線形にスケールすることを示す。
入力対応動的時間ステップSNN(DT-SNN)を提案し,SNNの効率を最大化する。
論文 参考訳(メタデータ) (2023-05-27T03:01:27Z) - TopSpark: A Timestep Optimization Methodology for Energy-Efficient
Spiking Neural Networks on Autonomous Mobile Agents [14.916996986290902]
スパイキングニューラルネットワーク(SNN)は、スパース計算と効率的なオンライン学習による低消費電力/エネルギー処理を提供する。
TopSparkは、適応タイムステップの削減を利用して、トレーニングと推論の両方でエネルギー効率の良いSNN処理を可能にする新しい手法である。
論文 参考訳(メタデータ) (2023-03-03T10:20:45Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Adaptive-SpikeNet: Event-based Optical Flow Estimation using Spiking
Neural Networks with Learnable Neuronal Dynamics [6.309365332210523]
ニューラルインスパイアされたイベント駆動処理でニューラルネットワーク(SNN)をスパイクすることで、非同期データを効率的に処理できる。
スパイク消滅問題を緩和するために,学習可能な神経力学を用いた適応型完全スパイキングフレームワークを提案する。
実験の結果,平均終端誤差(AEE)は最先端のANNと比較して平均13%減少した。
論文 参考訳(メタデータ) (2022-09-21T21:17:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。