論文の概要: Defending Spiking Neural Networks against Adversarial Attacks through Image Purification
- arxiv url: http://arxiv.org/abs/2404.17092v1
- Date: Fri, 26 Apr 2024 00:57:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 14:24:03.744460
- Title: Defending Spiking Neural Networks against Adversarial Attacks through Image Purification
- Title(参考訳): 画像浄化による敵攻撃に対するスパイクニューラルネットワークの防御
- Authors: Weiran Chen, Qi Sun, Qi Xu,
- Abstract要約: Spiking Neural Networks(SNN)は、神経科学と機械学習のギャップを埋めることを目的としている。
SNNは畳み込みニューラルネットワークのような敵の攻撃に弱い。
本稿では,SNNの堅牢性を高めるための生物学的にインスパイアされた手法を提案する。
- 参考スコア(独自算出の注目度): 20.492531851480784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) aim to bridge the gap between neuroscience and machine learning by emulating the structure of the human nervous system. However, like convolutional neural networks, SNNs are vulnerable to adversarial attacks. To tackle the challenge, we propose a biologically inspired methodology to enhance the robustness of SNNs, drawing insights from the visual masking effect and filtering theory. First, an end-to-end SNN-based image purification model is proposed to defend against adversarial attacks, including a noise extraction network and a non-blind denoising network. The former network extracts noise features from noisy images, while the latter component employs a residual U-Net structure to reconstruct high-quality noisy images and generate clean images. Simultaneously, a multi-level firing SNN based on Squeeze-and-Excitation Network is introduced to improve the robustness of the classifier. Crucially, the proposed image purification network serves as a pre-processing module, avoiding modifications to classifiers. Unlike adversarial training, our method is highly flexible and can be seamlessly integrated with other defense strategies. Experimental results on various datasets demonstrate that the proposed methodology outperforms state-of-the-art baselines in terms of defense effectiveness, training time, and resource consumption.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、人間の神経系の構造をエミュレートすることによって、神経科学と機械学習のギャップを埋めることを目的としている。
しかし、畳み込みニューラルネットワークのように、SNNは敵の攻撃に対して脆弱である。
そこで我々は,SNNのロバスト性を高め,視覚マスキング効果とフィルタリング理論から洞察を引き出す生物学的にインスピレーションを得た手法を提案する。
まず、ノイズ抽出ネットワークや非盲検ネットワークを含む敵対的攻撃に対して、エンド・ツー・エンドのSNNによる画像浄化モデルを提案する。
前者のネットワークはノイズ画像からノイズ特徴を抽出し、後者のコンポーネントは残留なU-Net構造を用いて高品質なノイズ画像を再構成し、クリーンな画像を生成する。
同時に、Squeeze-and-Excitation Networkに基づくマルチレベル発火SNNを導入し、分類器の堅牢性を向上させる。
重要なことは、提案された画像浄化ネットワークが前処理モジュールとして機能し、分類器の変更を避けることである。
敵の訓練と異なり、我々の手法は柔軟であり、他の防衛戦略とシームレスに統合できる。
提案手法は, 防衛効果, 訓練時間, 資源消費の面で, 最先端のベースラインよりも優れていることを示す。
関連論文リスト
- A Tunable Despeckling Neural Network Stabilized via Diffusion Equation [15.996302571895045]
ガンマノイズ除去は合成開口レーダ(SAR)イメージングの応用において重要な研究領域である。
本稿では,正規化ユニットと正規化ユニットを1つのネットワークにアンロールして,エンドツーエンドのトレーニングを行う,チューニング可能な正規化ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-11-24T17:08:43Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Self-Denoising Neural Networks for Few Shot Learning [66.38505903102373]
既存のニューラルアーキテクチャの複数の段階でノイズを追加すると同時に、この付加ノイズに対して堅牢であるように学習する新しいトレーニングスキームを提案する。
このアーキテクチャは、SDNN(Self-Denoising Neural Network)と呼ばれ、現代の畳み込みニューラルネットワークに容易に適用できます。
論文 参考訳(メタデータ) (2021-10-26T03:28:36Z) - (ASNA) An Attention-based Siamese-Difference Neural Network with
Surrogate Ranking Loss function for Perceptual Image Quality Assessment [0.0]
画像復元と拡張のための逆訓練フレームワークを利用する深層畳み込みニューラルネットワーク(dcnn)は、処理された画像のシャープさを大幅に改善した。
イメージの知覚品質とよく一致したパフォーマンスを反映した定量的指標を開発する必要がある。
本稿では,従来のSiameseネットワークの拡張アーキテクチャを用いた畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-05-06T09:04:21Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Convolutional versus Self-Organized Operational Neural Networks for
Real-World Blind Image Denoising [25.31981236136533]
初めてDeep Self-ONNを採用することで、現実世界の盲目の画像消音問題に取り組みます。
ディープセルフオンはPSNRで最大1.76dBの性能向上で常に優れた結果を達成します。
論文 参考訳(メタデータ) (2021-03-04T14:49:17Z) - Operational vs Convolutional Neural Networks for Image Denoising [25.838282412957675]
畳み込みニューラルネットワーク(CNN)は近年,適応学習能力により画像デノナイズ技術として好まれている。
データ変換のコアに新たな非線形性を埋め込むための柔軟性を向上するヘテロジニアスネットワークモデルを提案する。
ONNとCNNの比較評価は、線形演算子に富んだONNが等価かつよく知られた深層構成のCNNに対して優れたノイズ発生性能を達成できるという決定的な証拠が得られる。
論文 参考訳(メタデータ) (2020-09-01T12:15:28Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - TensorShield: Tensor-based Defense Against Adversarial Attacks on Images [7.080154188969453]
近年の研究では、ディープニューラルネットワーク(DNN)のような機械学習アプローチが、敵の攻撃によって簡単に騙されることが示されている。
本稿では,テンソル分解法を前処理のステップとして利用して,高頻度摂動を著しく排除できる画像の低ランク近似を求める。
論文 参考訳(メタデータ) (2020-02-18T00:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。