論文の概要: DVS-Attacks: Adversarial Attacks on Dynamic Vision Sensors for Spiking
Neural Networks
- arxiv url: http://arxiv.org/abs/2107.00415v1
- Date: Thu, 1 Jul 2021 12:56:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-02 13:56:40.726079
- Title: DVS-Attacks: Adversarial Attacks on Dynamic Vision Sensors for Spiking
Neural Networks
- Title(参考訳): DVS-Attacks: スパイクニューラルネットワークのための動的視覚センサの敵攻撃
- Authors: Alberto Marchisio and Giacomo Pira and Maurizio Martina and Guido
Masera and Muhammad Shafique
- Abstract要約: Spiking Neural Networks(SNN)とDynamic Vision Sensors(DVS)は、セキュリティ上の脅威に対して脆弱である。
DVS-Attacks はステルス的で効率的な敵攻撃手法である。
DVSのノイズフィルタは、敵攻撃に対する防御メカニズムとして使用できる。
- 参考スコア(独自算出の注目度): 15.093607722961407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs), despite being energy-efficient when
implemented on neuromorphic hardware and coupled with event-based Dynamic
Vision Sensors (DVS), are vulnerable to security threats, such as adversarial
attacks, i.e., small perturbations added to the input for inducing a
misclassification. Toward this, we propose DVS-Attacks, a set of stealthy yet
efficient adversarial attack methodologies targeted to perturb the event
sequences that compose the input of the SNNs. First, we show that noise filters
for DVS can be used as defense mechanisms against adversarial attacks.
Afterwards, we implement several attacks and test them in the presence of two
types of noise filters for DVS cameras. The experimental results show that the
filters can only partially defend the SNNs against our proposed DVS-Attacks.
Using the best settings for the noise filters, our proposed Mask Filter-Aware
Dash Attack reduces the accuracy by more than 20% on the DVS-Gesture dataset
and by more than 65% on the MNIST dataset, compared to the original clean
frames. The source code of all the proposed DVS-Attacks and noise filters is
released at https://github.com/albertomarchisio/DVS-Attacks.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアに実装された場合エネルギー効率が良く、イベントベースのダイナミックビジョンセンサー(DVS)と併用しても、敵攻撃、すなわち誤分類を引き起こすための入力に小さな摂動のようなセキュリティ上の脅威に弱い。
そこで本研究では,SNNの入力を構成するイベントシーケンスの摂動を目的とした,ステルスで効率的な攻撃手法であるDVS-Attacksを提案する。
まず,DVSのノイズフィルタを敵攻撃に対する防御機構として利用できることを示す。
その後,DVSカメラの2種類のノイズフィルタの存在下で,複数の攻撃を実行し,それらを検証した。
実験の結果,フィルタは提案したDVS-Attacksに対して部分的にSNNを防御できることがわかった。
ノイズフィルタの最適設定を用いて、提案したMask Filter-Aware Dash Attackは、DVS-Gestureデータセットで20%以上、MNISTデータセットで65%以上精度を低下させる。
DVS-Attacksとノイズフィルタのソースコードはhttps://github.com/albertomarchisio/DVS-Attacksで公開されている。
関連論文リスト
- Query-Efficient Hard-Label Black-Box Attack against Vision Transformers [9.086983253339069]
ビジョントランスフォーマー(ViT)は、ディープ畳み込みニューラルネットワーク(CNN)として敵対的攻撃から同様のセキュリティリスクに直面している
本稿では,ブラックボックスシナリオ下での敵攻撃に対するViTsの脆弱性について検討する。
本稿では,AdvViTと呼ばれる新しいクエリ効率の高いハードラベル逆攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-06-29T10:09:12Z) - VQUNet: Vector Quantization U-Net for Defending Adversarial Atacks by Regularizing Unwanted Noise [0.5755004576310334]
本稿では,新たなノイズ低減手法であるベクトル量子化U-Net(VQUNet)を導入し,対向雑音を低減し,高忠実度でデータを再構成する。
VQUNetは、ノイズ低減とデータ再構成の両方のためのマルチスケール階層構造を通して、離散潜在表現学習を特徴とする。
これは、Fashion-MNISTとCIFAR10データセットの両方に対する様々な敵攻撃の下で、最先端のノイズ低減ベースの防衛手法より優れている。
論文 参考訳(メタデータ) (2024-06-05T10:10:03Z) - Push-Pull: Characterizing the Adversarial Robustness for Audio-Visual
Active Speaker Detection [88.74863771919445]
我々は、音声のみ、視覚のみ、および音声-視覚的敵対攻撃下でのAVASDモデルの脆弱性を明らかにする。
また,攻撃者が現実的な相手を見つけるのを困難にするため,新たな音声・視覚的相互作用損失(AVIL)を提案する。
論文 参考訳(メタデータ) (2022-10-03T08:10:12Z) - A Mask-Based Adversarial Defense Scheme [3.759725391906588]
敵対的攻撃はディープニューラルネットワーク(DNN)の機能と精度を妨げる
敵攻撃による負の効果を軽減するため,DNNのためのMask-based Adversarial Defense scheme (MAD)を提案する。
論文 参考訳(メタデータ) (2022-04-21T12:55:27Z) - KATANA: Simple Post-Training Robustness Using Test Time Augmentations [49.28906786793494]
このような攻撃に対する先導的な防御は、DNNが敵の攻撃に対して堅牢であるように訓練される技術である敵の訓練である。
そこで本稿では,既存の事前学習型DNNを重みを変更せずに堅牢化する,シンプルで使いやすいKATANA手法を提案する。
我々の戦略は、自然画像の分類に最小限の妥協を伴い、様々な攻撃に対する最先端の敵対的堅牢性を達成する。
論文 参考訳(メタデータ) (2021-09-16T19:16:00Z) - R-SNN: An Analysis and Design Methodology for Robustifying Spiking
Neural Networks against Adversarial Attacks through Noise Filters for Dynamic
Vision Sensors [15.093607722961407]
Spiking Neural Networks(SNN)は、イベントベースダイナミックビジョンセンサー(DVS)を用いたニューロモルフィックチップに実装されたエネルギー効率の高い学習機能を提供することを目的としている。
本稿では,これらのDVSシステムに対する敵対的攻撃に対するSNNのロバスト性について検討し,効率的なノイズフィルタリングによるSNNのロバスト化手法であるR-SNNを提案する。
論文 参考訳(メタデータ) (2021-09-01T14:40:04Z) - Detect and Defense Against Adversarial Examples in Deep Learning using
Natural Scene Statistics and Adaptive Denoising [12.378017309516965]
本稿では,DNN を敵のサンプルから守るためのフレームワークを提案する。
この検出器は、自然の景観統計を利用してAEを検出することを目的としている。
提案手法は最先端の防御技術より優れている。
論文 参考訳(メタデータ) (2021-07-12T23:45:44Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。