論文の概要: HoSNN: Adversarially-Robust Homeostatic Spiking Neural Networks with Adaptive Firing Thresholds
- arxiv url: http://arxiv.org/abs/2308.10373v3
- Date: Fri, 31 May 2024 23:45:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 21:00:32.666480
- Title: HoSNN: Adversarially-Robust Homeostatic Spiking Neural Networks with Adaptive Firing Thresholds
- Title(参考訳): HoSNN: アダプティブファイリング閾値を持つ逆回転型ホメオスタティックスパイクニューラルネットワーク
- Authors: Hejia Geng, Peng Li,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、有望なニューラルインスパイアされた計算モデルを提供する。
本稿では,ニューロホメオスタシスからインスピレーションを得て,しきい値適応型集積・発火ニューロンモデルの設計を行う。
- 参考スコア(独自算出の注目度): 4.223946773134886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While spiking neural networks (SNNs) offer a promising neurally-inspired model of computation, they are vulnerable to adversarial attacks. We present the first study that draws inspiration from neural homeostasis to design a threshold-adapting leaky integrate-and-fire (TA-LIF) neuron model and utilize TA-LIF neurons to construct the adversarially robust homeostatic SNNs (HoSNNs) for improved robustness. The TA-LIF model incorporates a self-stabilizing dynamic thresholding mechanism, offering a local feedback control solution to the minimization of each neuron's membrane potential error caused by adversarial disturbance. Theoretical analysis demonstrates favorable dynamic properties of TA-LIF neurons in terms of the bounded-input bounded-output stability and suppressed time growth of membrane potential error, underscoring their superior robustness compared with the standard LIF neurons. When trained with weak FGSM attacks (attack budget = 2/255) and tested with much stronger PGD attacks (attack budget = 8/255), our HoSNNs significantly improve model accuracy on several datasets: from 30.54% to 74.91% on FashionMNIST, from 0.44% to 35.06% on SVHN, from 0.56% to 42.63% on CIFAR10, from 0.04% to 16.66% on CIFAR100, over the conventional LIF-based SNNs.
- Abstract(参考訳): スパイクニューラルネットワーク(SNN)は、有望なニューラルネットワークにインスパイアされた計算モデルを提供するが、敵の攻撃に対して脆弱である。
本研究は,ニューラルホメオスタシスからインスピレーションを得て,しきい値適応型インテリジェンス・アンド・ファイア(TA-LIF)ニューロンモデルを設計し,TA-LIFニューロンを用いて,強靭性を向上させるために対向的に堅牢なホメオスタシスSNN(HoSNN)を構築することを目的とした最初の研究である。
TA-LIFモデルには自己安定化動的しきい値設定機構が組み込まれており、対向障害に起因する各ニューロンの膜電位誤差の最小化に対する局所的なフィードバック制御ソリューションを提供する。
理論的解析により、TA-LIFニューロンのバウンドインプット・アウトプット安定性と膜電位誤差の時間的成長を抑え、標準のLIFニューロンと比較して優れた強靭性を示す。
弱いFGSM攻撃(アタック予算=2/255)で訓練し、PGD攻撃(アタック予算=8/255)でテストすると、我々のHoSNNはいくつかのデータセットでモデル精度を著しく改善した: FashionMNISTで30.54%から74.91%、SVHNで0.44%から35.06%、CIFAR10で0.56%から42.63%、従来のLIFベースのSNNで0.04%から16.66%。
関連論文リスト
- Robust Stable Spiking Neural Networks [45.84535743722043]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアの低エネルギー予算のため、ディープラーニングで人気を集めている。
SNNを敵の攻撃の脅威から守るために多くの研究がなされている。
本稿では非線形システムの安定性のレンズによるSNNの堅牢性を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-05-31T08:40:02Z) - Fully Spiking Denoising Diffusion Implicit Models [61.32076130121347]
スパイキングニューラルネットワーク(SNN)は、超高速のニューロモルフィックデバイス上で走る能力のため、かなりの注目を集めている。
本研究では,SNN内で拡散モデルを構築するために,拡散暗黙モデル (FSDDIM) を完全にスパイクする新しい手法を提案する。
提案手法は,最先端の完全スパイク生成モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-04T09:07:09Z) - Adaptive Sparse Structure Development with Pruning and Regeneration for
Spiking Neural Networks [6.760855795263126]
スパイキングニューラルネットワーク(SNN)は、深層ニューラルネットワークのエネルギー問題を緩和するために、脳発達のスパース構造的可塑性を描くという自然な利点がある。
本稿では, 樹状突起塑性をベースとしたシナプス拘束, 神経切断, シナプス再生を取り入れたSNNの適応的構造発達手法を提案する。
論文 参考訳(メタデータ) (2022-11-22T12:23:30Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - SIT: A Bionic and Non-Linear Neuron for Spiking Neural Network [12.237928453571636]
スパイキングニューラルネットワーク(SNN)は、時間的情報処理能力と消費電力の低さから、研究者の関心を喚起している。
現在の最先端の手法は、ニューロンが単純な Leaky-Integrate-and-Fire (LIF) モデルに基づいて構築されているため、生物学的な可視性と性能を制限している。
高レベルの動的複雑さのため、現代のニューロンモデルがSNNの実践で実装されることはめったにない。
論文 参考訳(メタデータ) (2022-03-30T07:50:44Z) - Enhanced physics-constrained deep neural networks for modeling vanadium
redox flow battery [62.997667081978825]
本稿では,物理制約付き深部ニューラルネットワーク(PCDNN)による高精度電圧予測手法を提案する。
ePCDNNは、電圧放電曲線のテール領域を含む電荷放電サイクルを通して、電圧応答を正確にキャプチャすることができる。
論文 参考訳(メタデータ) (2022-03-03T19:56:24Z) - HIRE-SNN: Harnessing the Inherent Robustness of Energy-Efficient Deep
Spiking Neural Networks by Training with Crafted Input Noise [13.904091056365765]
SNNトレーニングアルゴリズムは,入力ノイズを発生させるとともに,追加のトレーニング時間も発生しない。
通常の訓練された直接入力SNNと比較して、トレーニングされたモデルでは、最大13.7%の分類精度が向上した。
また,本モデルでは,レートコード入力を学習したSNNに対して,攻撃生成画像の分類性能が向上あるいは類似していることが特筆すべき点である。
論文 参考訳(メタデータ) (2021-10-06T16:48:48Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Batch Normalization Increases Adversarial Vulnerability and Decreases
Adversarial Transferability: A Non-Robust Feature Perspective [91.5105021619887]
バッチ正規化(BN)は、現代のディープニューラルネットワーク(DNN)で広く使われている。
BNは、対向ロバスト性を犠牲にしてモデル精度を高めることが観察された。
BNが主にロバスト特徴(RF)と非ロバスト特徴(NRF)の学習を好んでいるかどうかは不明である。
論文 参考訳(メタデータ) (2020-10-07T10:24:33Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。