論文の概要: Time-Distributed Backdoor Attacks on Federated Spiking Learning
- arxiv url: http://arxiv.org/abs/2402.02886v1
- Date: Mon, 5 Feb 2024 10:54:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 16:46:49.026483
- Title: Time-Distributed Backdoor Attacks on Federated Spiking Learning
- Title(参考訳): フェデレートスパイキング学習における時間分散バックドア攻撃
- Authors: Gorka Abad, Stjepan Picek, Aitor Urbieta
- Abstract要約: 本稿では,ニューロモルフィックデータを用いたバックドア攻撃に対するスパイクニューラルネットワーク(SNN)とフェデレーション学習(FL)の脆弱性について検討する。
我々はSNNやFLに合わせた新たな攻撃戦略を開発し、悪意のあるデバイスにバックドアトリガーを時間的および時間的に配布する。
本研究は、SNNとFLの展開において、堅牢なセキュリティ対策の必要性を浮き彫りにする。
- 参考スコア(独自算出の注目度): 14.314066620468637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the vulnerability of spiking neural networks (SNNs)
and federated learning (FL) to backdoor attacks using neuromorphic data.
Despite the efficiency of SNNs and the privacy advantages of FL, particularly
in low-powered devices, we demonstrate that these systems are susceptible to
such attacks. We first assess the viability of using FL with SNNs using
neuromorphic data, showing its potential usage. Then, we evaluate the
transferability of known FL attack methods to SNNs, finding that these lead to
suboptimal attack performance. Therefore, we explore backdoor attacks involving
single and multiple attackers to improve the attack performance. Our primary
contribution is developing a novel attack strategy tailored to SNNs and FL,
which distributes the backdoor trigger temporally and across malicious devices,
enhancing the attack's effectiveness and stealthiness. In the best case, we
achieve a 100 attack success rate, 0.13 MSE, and 98.9 SSIM. Moreover, we adapt
and evaluate an existing defense against backdoor attacks, revealing its
inadequacy in protecting SNNs. This study underscores the need for robust
security measures in deploying SNNs and FL, particularly in the context of
backdoor attacks.
- Abstract(参考訳): 本稿では,ニューロモルフィックデータを用いたバックドア攻撃に対するスパイクニューラルネットワーク(SNN)とフェデレーション学習(FL)の脆弱性について検討する。
SNNの効率性とFLのプライバシー上の優位性にもかかわらず、特に低消費電力デバイスでは、これらのシステムがこのような攻撃の影響を受けやすいことを示す。
まず、ニューロモルフィックデータを用いてFLとSNNの併用の可能性を評価し、その可能性を示す。
次に,既知のfl攻撃手法のsnsへの移動性を評価し,これらが準最適攻撃性能をもたらすことを見出した。
そこで,攻撃性能を向上させるため,単発攻撃と複数発攻撃のバックドア攻撃について検討した。
我々の主な貢献は、SNNやFLに合わせた新たな攻撃戦略を開発することです。
最良の場合、攻撃成功率0.13 MSE、および98.9 SSIMを達成する。
さらに,従来のバックドア攻撃に対する防御を適応評価し,snsの保護に不備があることを明らかにする。
本研究は、特にバックドア攻撃の文脈において、SNNとFLの展開における堅牢なセキュリティ対策の必要性を明らかにする。
関連論文リスト
- Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Sneaky Spikes: Uncovering Stealthy Backdoor Attacks in Spiking Neural
Networks with Neuromorphic Data [15.084703823643311]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率の向上と生物学的に有効なデータ処理機能を提供する。
本稿では,ニューロモルフィックデータセットと多様なトリガーを用いたSNNのバックドア攻撃について検討する。
我々は,攻撃成功率を100%まで達成しつつ,クリーンな精度に無視できる影響を保ちながら,様々な攻撃戦略を提示する。
論文 参考訳(メタデータ) (2023-02-13T11:34:17Z) - Adversarial Defense via Neural Oscillation inspired Gradient Masking [0.0]
スパイクニューラルネットワーク(SNN)は、低消費電力、低レイテンシ、生物学的妥当性のために大きな注目を集めている。
本稿では,SNNの安全性を高めるためにバイオインスパイアされた発振機構を組み込んだ新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2022-11-04T02:13:19Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Attacking the Spike: On the Transferability and Security of Spiking
Neural Networks to Adversarial Examples [19.227133993690504]
スパイキングニューラルネットワーク(SNN)はその高エネルギー効率と近年の分類性能の進歩に多くの注目を集めている。
従来のディープラーニング手法とは異なり、SNNの強靭性の分析と研究は比較的未発達のままである。
我々は,SNNに対するホワイトボックス攻撃の成功は,下層のサロゲート勾配技術に大きく依存していることを示す。
論文 参考訳(メタデータ) (2022-09-07T17:05:48Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - BadNL: Backdoor Attacks against NLP Models with Semantic-preserving
Improvements [33.309299864983295]
我々は,新たな攻撃方法を含む一般的なNLPバックドア攻撃フレームワークであるBadNLを提案する。
我々の攻撃は、原モデルの実用性に無視できる効果で、ほぼ完璧な攻撃成功率を達成する。
論文 参考訳(メタデータ) (2020-06-01T16:17:14Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。