論文の概要: Stable Spike: Dual Consistency Optimization via Bitwise AND Operations for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2603.11676v1
- Date: Thu, 12 Mar 2026 08:42:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.968534
- Title: Stable Spike: Dual Consistency Optimization via Bitwise AND Operations for Spiking Neural Networks
- Title(参考訳): 安定スパイク:ビットワイズによるデュアル一貫性最適化とスパイクニューラルネットワークの動作
- Authors: Yongqi Ding, Kunshan Yang, Linze Li, Yiyang Zhang, Mengmeng Jing, Lin Zuo,
- Abstract要約: スパイキングニューラルネットワーク(SNN)の時間的スパイクダイナミクスは、表現を著しく損なう固有の不整合を引き起こす。
本稿では, この問題を緩和するために, 安定スパイクによる二重整合性最適化を行う。
超低遅延下でのニューロモルフィック物体認識の精度は最大8.33%向上した。
- 参考スコア(独自算出の注目度): 13.58751069809103
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Although the temporal spike dynamics of spiking neural networks (SNNs) enable low-power temporal pattern capture capabilities, they also incur inherent inconsistencies that severely compromise representation. In this paper, we perform dual consistency optimization via Stable Spike to mitigate this problem, thereby improving the recognition performance of SNNs. With the hardware-friendly ``AND" bit operation, we efficiently decouple the stable spike skeleton from the multi-timestep spike maps, thereby capturing critical semantics while reducing inconsistencies from variable noise spikes. Enforcing the unstable spike maps to converge to the stable spike skeleton significantly improves the inherent consistency across timesteps. Furthermore, we inject amplitude-aware spike noise into the stable spike skeleton to diversify the representations while preserving consistent semantics. The SNN is encouraged to produce perturbation-consistent predictions, thereby contributing to generalization. Extensive experiments across multiple architectures and datasets validate the effectiveness and versatility of our method. In particular, our method significantly advances neuromorphic object recognition under ultra-low latency, improving accuracy by up to 8.33\%. This will help unlock the full power consumption and speed potential of SNNs.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)の時間的スパイクダイナミクスは、低消費電力の時間的パターンキャプチャ機能を実現するが、それらもまた、表現を著しく妥協する固有の矛盾を生じさせる。
本稿では、安定スパイクによる二重整合性最適化を行い、この問題を緩和し、SNNの認識性能を向上させる。
ハードウェアフレンドリーな `AND" ビット演算により、安定スパイクスケルトンをマルチステップスパイクマップから効率的に分離し、可変ノイズスパイクから不整合を低減しつつ、重要なセマンティクスを捕捉する。
不安定なスパイクマップを安定なスパイクスケルトンに収束させることは、タイムステップ間の固有の一貫性を著しく向上させる。
さらに、安定したスパイクスケルトンに振幅認識スパイクノイズを注入し、一貫した意味を保ちながら表現を多様化する。
SNNは摂動に一貫性のある予測を生成することを奨励され、一般化に寄与する。
複数のアーキテクチャやデータセットにわたる大規模な実験により,本手法の有効性と妥当性が検証された。
特に,超低遅延下でのニューロモルフィック物体認識の精度は最大8.33\%向上した。
これにより、SNNの電力消費と速度の可能性を解き放つことができる。
関連論文リスト
- Time Is All It Takes: Spike-Retiming Attacks on Event-Driven Spiking Neural Networks [87.16809558673403]
スパイキングニューラルネットワーク(SNN)は離散スパイクで計算し、時間構造を利用する。
イベント駆動SNNにおけるスパイク数と振幅を保存しながら、既存のスパイクを繰り返すタイミングのみの敵について検討する。
論文 参考訳(メタデータ) (2026-02-03T09:06:53Z) - STAER: Temporal Aligned Rehearsal for Continual Spiking Neural Network [11.986684053664087]
スパイキングニューラルネットワーク(SNN)は、イベント駆動の時間ダイナミクスのため、本質的に継続的学習に適している。
本稿では,SNNとANNのパフォーマンスギャップを埋めるため,STAER(Spking Temporal Alignment with Experience Replay)を提案する。
提案手法は,スパイクタイミングの忠実度を維持するために相違可能なSoft-DTWアライメント損失を統合し,出力ロジットに時間拡張・収縮機構を導入し,堅牢な表現学習を実現する。
論文 参考訳(メタデータ) (2026-01-16T09:54:10Z) - Beyond Rate Coding: Surrogate Gradients Enable Spike Timing Learning in Spiking Neural Networks [6.67685573218035]
本研究では,Surrogate Gradient Descent (Surrogate GD)で訓練したスパイキングニューラルネットワーク(SNN)が,発射速度を超える正確なスパイクタイミングから学習可能であることを示す。
ネットワークはスパイクシーケンスが時間内に逆転した場合に急激なパフォーマンス低下を示し、遅延でトレーニングされたSNNからは大きく低下する。
論文 参考訳(メタデータ) (2025-07-21T20:19:19Z) - Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - Stable Neighbor Denoising for Source-free Domain Adaptive Segmentation [91.83820250747935]
擬似ラベルノイズは主に不安定なサンプルに含まれており、ほとんどのピクセルの予測は自己学習中に大きく変化する。
我々は, 安定・不安定な試料を効果的に発見する, SND(Stable Neighbor Denoising)アプローチを導入する。
SNDは、様々なSFUDAセマンティックセグメンテーション設定における最先端メソッドよりも一貫して優れている。
論文 参考訳(メタデータ) (2024-06-10T21:44:52Z) - Low Latency of object detection for spikng neural network [3.404826786562694]
スパイキングニューラルネットワークは、バイナリスパイクの性質のため、エッジAIアプリケーションに適している。
本稿では,オブジェクト検出に特化して,高精度で低遅延なSNNを生成することに焦点を当てる。
論文 参考訳(メタデータ) (2023-09-27T10:26:19Z) - Inherent Redundancy in Spiking Neural Networks [24.114844269113746]
スパイキングネットワーク(SNN)は、従来の人工ニューラルネットワークに代わる有望なエネルギー効率の代替手段である。
本研究では,SNNにおける固有冗長性に関する3つの重要な疑問に焦点をあてる。
本稿では,SNNの冗長性を活用するためのアドバンストアテンション(ASA)モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:58:25Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。