論文の概要: Boosting the Robustness-Accuracy Trade-off of SNNs by Robust Temporal Self-Ensemble
- arxiv url: http://arxiv.org/abs/2508.11279v1
- Date: Fri, 15 Aug 2025 07:34:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.782233
- Title: Boosting the Robustness-Accuracy Trade-off of SNNs by Robust Temporal Self-Ensemble
- Title(参考訳): ロバストな時間自己組み立てによるSNNのロバスト性・精度トレードオフの促進
- Authors: Jihang Wang, Dongcheng Zhao, Ruolin Chen, Qian Zhang, Yi Zeng,
- Abstract要約: Spiking Neural Networks(SNN)は、エネルギー効率と脳にインスパイアされたコンピューティングのための有望な方向性を提供する。
本研究は,対人学習における時間構造の重要性を強調し,強靭なスパイクモデル構築のための原則的基盤を提供する。
- 参考スコア(独自算出の注目度): 7.029504254766399
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Spiking Neural Networks (SNNs) offer a promising direction for energy-efficient and brain-inspired computing, yet their vulnerability to adversarial perturbations remains poorly understood. In this work, we revisit the adversarial robustness of SNNs through the lens of temporal ensembling, treating the network as a collection of evolving sub-networks across discrete timesteps. This formulation uncovers two critical but underexplored challenges-the fragility of individual temporal sub-networks and the tendency for adversarial vulnerabilities to transfer across time. To overcome these limitations, we propose Robust Temporal self-Ensemble (RTE), a training framework that improves the robustness of each sub-network while reducing the temporal transferability of adversarial perturbations. RTE integrates both objectives into a unified loss and employs a stochastic sampling strategy for efficient optimization. Extensive experiments across multiple benchmarks demonstrate that RTE consistently outperforms existing training methods in robust-accuracy trade-off. Additional analyses reveal that RTE reshapes the internal robustness landscape of SNNs, leading to more resilient and temporally diversified decision boundaries. Our study highlights the importance of temporal structure in adversarial learning and offers a principled foundation for building robust spiking models.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、エネルギー効率と脳にインスパイアされたコンピューティングにとって有望な方向を提供するが、敵の摂動に対する脆弱性はいまだに理解されていない。
本研究では,SNNの対角的ロバスト性について,時間的アンサンブルのレンズを用いて再検討し,ネットワークを個別の時間ステップにまたがる進化するサブネットワークの集合として扱う。
この定式化によって、個々の時間的サブネットワークの脆弱さと、敵の脆弱性が時間の経過とともに移動する傾向という、2つの批判的かつ過小評価された課題が明らかになった。
このような制約を克服するために,各サブネットワークの堅牢性を向上させるとともに,対向的摂動の時間的伝達性を低減したトレーニングフレームワークであるRobust Temporal Self-Ensemble (RTE)を提案する。
RTEは、両方の目的を統一的な損失に統合し、効率的な最適化のために確率的サンプリング戦略を採用する。
複数のベンチマークにわたる大規模な実験により、RTEはロバスト・精度のトレードオフにおいて既存のトレーニング手法を一貫して上回っていることが示される。
さらなる分析により、RTEはSNNの内部の堅牢性環境を再認識し、より弾力的で時間的に異なる決定境界をもたらすことが明らかとなった。
本研究は,対人学習における時間構造の重要性を強調し,強靭なスパイクモデル構築のための原則的基盤を提供する。
関連論文リスト
- Network Sparsity Unlocks the Scaling Potential of Deep Reinforcement Learning [57.3885832382455]
静的ネットワークの疎結合を単独で導入することで,最先端アーキテクチャの高密度化を超えて,さらなるスケーリング可能性を実現することができることを示す。
解析の結果,高密度DRLネットワークをネーティブにスケールアップするのとは対照的に,疎ネットワークは高いパラメータ効率とネットワーク表現性を両立させることがわかった。
論文 参考訳(メタデータ) (2025-06-20T17:54:24Z) - Rethinking Spiking Neural Networks from an Ensemble Learning Perspective [4.823440259626247]
スパイキングニューラルネットワーク(SNN)はエネルギー効率が優れているが、限られた性能に悩まされている。
本稿では,SNNをアーキテクチャと重みを共有するテンポラルワークのアンサンブルとみなす。
我々は初期膜電位分布の整合性を促進し、膜電位の平滑化と時間的に隣接するサブネットワークガイダンスを通して出力する。
論文 参考訳(メタデータ) (2025-02-20T03:15:52Z) - Learning Delays Through Gradients and Structure: Emergence of Spatiotemporal Patterns in Spiking Neural Networks [0.06752396542927405]
学習可能なシナプス遅延を2つのアプローチで組み込んだスパイキングニューラルネットワーク(SNN)モデルを提案する。
後者のアプローチでは、ネットワークは接続を選択してプーンし、スパース接続設定の遅延を最適化する。
本研究では,時間的データ処理のための効率的なSNNモデルを構築するために,遅延学習と動的プルーニングを組み合わせる可能性を示す。
論文 参考訳(メタデータ) (2024-07-07T11:55:48Z) - Boosting Adversarial Robustness From The Perspective of Effective Margin
Regularization [58.641705224371876]
ディープニューラルネットワーク(DNN)の敵対的脆弱性は、ここ数年で積極的に研究されている。
本稿では,クロスエントロピー損失のスケール変動特性について検討する。
提案した有効マージン正則化(EMR)は,大きな有効マージンを学習し,標準トレーニングと対向トレーニングの両方において対向的ロバスト性を高めることを示す。
論文 参考訳(メタデータ) (2022-10-11T03:16:56Z) - TSFool: Crafting Highly-Imperceptible Adversarial Time Series through Multi-Objective Attack [6.243453526766042]
TSFoolと呼ばれる効率的な手法を提案する。
中心となる考え方は、「カモフラージュ係数」(Camouflage Coefficient)と呼ばれる新しい大域的な最適化目標であり、クラス分布から反対サンプルの非受容性を捉えるものである。
11のUCRデータセットとUEAデータセットの実験では、TSFoolは6つのホワイトボックスと3つのブラックボックスベンチマークアタックを著しく上回っている。
論文 参考訳(メタデータ) (2022-09-14T03:02:22Z) - Q-TART: Quickly Training for Adversarial Robustness and
in-Transferability [28.87208020322193]
本稿では,提案アルゴリズムであるQ-TARTを用いて,性能,効率,ロバスト性に取り組むことを提案する。
Q-TARTは、ノイズに強い影響を受けやすいサンプルが、ディープニューラルネットワークによって学習された決定境界に強く影響を与えるという直感に従う。
トレーニングデータのサブセットのみを使用しながら,性能向上と対向ロバスト性を実証した。
論文 参考訳(メタデータ) (2022-04-14T15:23:08Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Bridging Mode Connectivity in Loss Landscapes and Adversarial Robustness [97.67477497115163]
我々は、モード接続を用いて、ディープニューラルネットワークの対角的堅牢性を研究する。
実験では、異なるネットワークアーキテクチャやデータセットに適用される様々な種類の敵攻撃について取り上げる。
以上の結果から,モード接続は,敵の強靭性を評価・改善するための総合的なツールであり,実用的な手段であることが示唆された。
論文 参考訳(メタデータ) (2020-04-30T19:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。