論文の概要: Time Is All It Takes: Spike-Retiming Attacks on Event-Driven Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2602.03284v1
- Date: Tue, 03 Feb 2026 09:06:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.346042
- Title: Time Is All It Takes: Spike-Retiming Attacks on Event-Driven Spiking Neural Networks
- Title(参考訳): イベント駆動スパイクニューラルネットワークのスパイク対策
- Authors: Yi Yu, Qixin Zhang, Shuhan Ye, Xun Lin, Qianshan Wei, Kun Wang, Wenhan Yang, Dacheng Tao, Xudong Jiang,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は離散スパイクで計算し、時間構造を利用する。
イベント駆動SNNにおけるスパイク数と振幅を保存しながら、既存のスパイクを繰り返すタイミングのみの敵について検討する。
- 参考スコア(独自算出の注目度): 87.16809558673403
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) compute with discrete spikes and exploit temporal structure, yet most adversarial attacks change intensities or event counts instead of timing. We study a timing-only adversary that retimes existing spikes while preserving spike counts and amplitudes in event-driven SNNs, thus remaining rate-preserving. We formalize a capacity-1 spike-retiming threat model with a unified trio of budgets: per-spike jitter $\mathcal{B}_{\infty}$, total delay $\mathcal{B}_{1}$, and tamper count $\mathcal{B}_{0}$. Feasible adversarial examples must satisfy timeline consistency and non-overlap, which makes the search space discrete and constrained. To optimize such retimings at scale, we use projected-in-the-loop (PIL) optimization: shift-probability logits yield a differentiable soft retiming for backpropagation, and a strict projection in the forward pass produces a feasible discrete schedule that satisfies capacity-1, non-overlap, and the chosen budget at every step. The objective maximizes task loss on the projected input and adds a capacity regularizer together with budget-aware penalties, which stabilizes gradients and aligns optimization with evaluation. Across event-driven benchmarks (CIFAR10-DVS, DVS-Gesture, N-MNIST) and diverse SNN architectures, we evaluate under binary and integer event grids and a range of retiming budgets, and also test models trained with timing-aware adversarial training designed to counter timing-only attacks. For example, on DVS-Gesture the attack attains high success (over $90\%$) while touching fewer than $2\%$ of spikes under $\mathcal{B}_{0}$. Taken together, our results show that spike retiming is a practical and stealthy attack surface that current defenses struggle to counter, providing a clear reference for temporal robustness in event-driven SNNs. Code is available at https://github.com/yuyi-sd/Spike-Retiming-Attacks.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は離散スパイクで計算し、時間構造を利用するが、ほとんどの敵攻撃はタイミングではなくインテンシティやイベントカウントを変化させる。
本研究では,イベント駆動SNNにおけるスパイク数と振幅を保ちながら,既存のスパイクを繰り返すタイミングのみの敵について検討した。
キャパシティー1のスパイク推定脅威モデルに統一された3つの予算を定式化する: per-spike jitter $\mathcal{B}_{\infty}$, total delay $\mathcal{B}_{1}$, tamper count $\mathcal{B}_{0}$。
好ましくない逆の例は、タイムラインの一貫性と非オーバーラップを満たす必要があり、これによって探索空間は離散化され制約される。
シフト確率ロジットは、バックプロパゲーションのために微分可能なソフトリタイピングをもたらし、フォワードパスの厳密なプロジェクションは、キャパシティ-1、非オーバーラップ、選択された予算を各ステップで満たす、実現可能な離散スケジュールを生成する。
この目的は、予測された入力に対するタスク損失を最大化し、予算対応のペナルティと共にキャパシティ・レギュレータを追加し、勾配を安定化し、最適化を評価と整合させる。
イベント駆動型ベンチマーク (CIFAR10-DVS, DVS-Gesture, N-MNIST) と多種多様なSNNアーキテクチャ, バイナリおよび整数イベントグリッドによる評価, 最適化予算の幅, タイミングのみの攻撃に対処するタイミング対応対向訓練を用いたテストモデルについて検討した。
例えば、DVS-Gestureでは、攻撃は成功し(90\%$以上)、$\mathcal{B}_{0}$で2\%$以下のスパイクに触れる。
その結果、スパイクリタイピングは、現在の守備隊が対応に苦慮している実用的でステルスな攻撃面であり、イベント駆動SNNにおける時間的堅牢性への明確な言及であることがわかった。
コードはhttps://github.com/yuyi-sd/Spike-Retiming-Attacksで入手できる。
関連論文リスト
- Timestep-Compressed Attack on Spiking Neural Networks through Timestep-Level Backpropagation [5.234835661080496]
スパイキングニューラルネットワーク(SNN)に対する最先端の敵攻撃は、重大な制限に直面している。
本稿では,TCA(Timestep-compressed attack)を提案する。
論文 参考訳(メタデータ) (2025-08-19T13:17:15Z) - Efficient Parallel Training Methods for Spiking Neural Networks with Constant Time Complexity [63.56009745101597]
スパイキングニューラルネットワーク (SNN) はしばしば、$T$スパイクのシーケンシャル処理のために、高い時間複雑性の$O(T)$に悩まされる。
本稿では,ネットワークアーキテクチャを変更することなく,SNNトレーニングを高速化するFPT法を提案する。
論文 参考訳(メタデータ) (2025-06-10T13:27:27Z) - GSE: Group-wise Sparse and Explainable Adversarial Attacks [20.303181440447855]
スパース敵は、最小ピクセルの摂動によって、愚かなディープニューラルネットワーク(DNN)を攻撃します。
近年の取り組みは、この標準を核グループノルムのようなスパーシティ正則化器に置き換えて、グループワイドの敵攻撃を作らせている。
本稿では,意味的意味のある画像内のグループワイドアタックを生成する2相アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-29T08:26:18Z) - TSFool: Crafting Highly-Imperceptible Adversarial Time Series through Multi-Objective Attack [6.243453526766042]
TSFoolと呼ばれる効率的な手法を提案する。
中心となる考え方は、「カモフラージュ係数」(Camouflage Coefficient)と呼ばれる新しい大域的な最適化目標であり、クラス分布から反対サンプルの非受容性を捉えるものである。
11のUCRデータセットとUEAデータセットの実験では、TSFoolは6つのホワイトボックスと3つのブラックボックスベンチマークアタックを著しく上回っている。
論文 参考訳(メタデータ) (2022-09-14T03:02:22Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - A Panda? No, It's a Sloth: Slowdown Attacks on Adaptive Multi-Exit
Neural Network Inference [6.320009081099895]
スローダウン攻撃は、マルチエクイットDNNの有効性を90-100%削減し、典型的なIoTデプロイメントにおいて1.5~5$times$のレイテンシを増幅する。
汎用的で再利用可能な摂動を構築でき、攻撃は現実的なブラックボックスのシナリオで有効であることを示す。
論文 参考訳(メタデータ) (2020-10-06T02:06:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。