論文の概要: Detect and Defense Against Adversarial Examples in Deep Learning using
Natural Scene Statistics and Adaptive Denoising
- arxiv url: http://arxiv.org/abs/2107.05780v1
- Date: Mon, 12 Jul 2021 23:45:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-15 01:45:57.702565
- Title: Detect and Defense Against Adversarial Examples in Deep Learning using
Natural Scene Statistics and Adaptive Denoising
- Title(参考訳): 自然景観統計と適応分別を用いた深層学習における敵例の検出と防御
- Authors: Anouar Kherchouche, Sid Ahmed Fezza, Wassim Hamidouche
- Abstract要約: 本稿では,DNN を敵のサンプルから守るためのフレームワークを提案する。
この検出器は、自然の景観統計を利用してAEを検出することを目的としている。
提案手法は最先端の防御技術より優れている。
- 参考スコア(独自算出の注目度): 12.378017309516965
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the enormous performance of deepneural networks (DNNs), recent
studies have shown theirvulnerability to adversarial examples (AEs), i.e.,
care-fully perturbed inputs designed to fool the targetedDNN. Currently, the
literature is rich with many ef-fective attacks to craft such AEs. Meanwhile,
many de-fenses strategies have been developed to mitigate thisvulnerability.
However, these latter showed their effec-tiveness against specific attacks and
does not general-ize well to different attacks. In this paper, we proposea
framework for defending DNN classifier against ad-versarial samples. The
proposed method is based on atwo-stage framework involving a separate detector
anda denoising block. The detector aims to detect AEs bycharacterizing them
through the use of natural scenestatistic (NSS), where we demonstrate that
these statis-tical features are altered by the presence of
adversarialperturbations. The denoiser is based on block matching3D (BM3D)
filter fed by an optimum threshold valueestimated by a convolutional neural
network (CNN) toproject back the samples detected as AEs into theirdata
manifold. We conducted a complete evaluation onthree standard datasets namely
MNIST, CIFAR-10 andTiny-ImageNet. The experimental results show that
theproposed defense method outperforms the state-of-the-art defense techniques
by improving the robustnessagainst a set of attacks under black-box, gray-box
and white-box settings. The source code is available at:
https://github.com/kherchouche-anouar/2DAE
- Abstract(参考訳): ディープニューラルネットワーク(dnn)の膨大な性能にもかかわらず、最近の研究では、ターゲットdnnを騙すために設計された不注意な摂動入力(aes)に対するそれらの消耗性が示されている。
現在、文学はそのようなAEを作ろうとするエフェクティブな攻撃に富んでいる。
一方で、この脆弱性を緩和するために多くのデファンス戦略が開発されている。
しかし、後者は特定の攻撃に対してエフェクティビティを示しており、異なる攻撃に対して一般化しない。
本稿では,DNN分類器を対向サンプルに対して防御するためのフレームワークを提案する。
提案手法は,別個の検出器とデノナイジングブロックを含む2段階の枠組みに基づく。
この検出器は自然景観統計(nss)を用いてaesを検出することを目的としており、これらのスタティス的特徴は逆摂動の存在によって変化することが示されている。
このデノイザは、畳み込みニューラルネットワーク(CNN)によって推定される最適なしきい値によって供給されるブロックマッチング3D(BM3D)フィルタに基づいて、AEsとして検出されたサンプルをデータ多様体に投影する。
我々は,MNIST,CIFAR-10,Tiny-ImageNetの3つの標準データセットについて完全な評価を行った。
実験結果から, ブラックボックス, グレーボックス, ホワイトボックス設定下での攻撃に対するロバスト性向上により, 現状の防御技術よりも優れた防御手法が得られた。
ソースコードはhttps://github.com/kherchouche-anouar/2daeで入手できる。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - HOLMES: to Detect Adversarial Examples with Multiple Detectors [1.455585466338228]
HOLMESは、高い精度と偽陽性率の低い複数の攻撃から、テクスチュンシンの敵の例を識別することができる。
我々の効果的で安価な戦略は、オリジナルのDNNモデルを変更したり、内部パラメータを必要としたりしない。
論文 参考訳(メタデータ) (2024-05-30T11:22:55Z) - Attackar: Attack of the Evolutionary Adversary [0.0]
本稿では、進化的、スコアベース、ブラックボックス攻撃であるtextitAttackarを紹介する。
アタッカーは、勾配のない最適化問題に使用できる新しい目的関数に基づいている。
以上の結果から,精度とクエリ効率の両面で,Attackarの優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-17T13:57:23Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - IoU Attack: Towards Temporally Coherent Black-Box Adversarial Attack for
Visual Object Tracking [70.14487738649373]
アドリア攻撃は、深いニューラルネットワークが、知覚不能な摂動によって注入された入力サンプルを知覚する脆弱性によって起こる。
視覚的物体追跡のための決定に基づくブラックボックス攻撃法を提案する。
我々は、最先端のディープトラッカーに対するIoU攻撃を検証した。
論文 参考訳(メタデータ) (2021-03-27T16:20:32Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - Detection of Iterative Adversarial Attacks via Counter Attack [4.549831511476249]
ディープニューラルネットワーク(DNN)は、非構造化データを処理する強力なツールであることが証明されている。
画像のような高次元データの場合、それらは本質的に敵対的な攻撃に対して脆弱である。
本研究では、CW攻撃が検出器自体として使用できるという数学的証明を概説する。
論文 参考訳(メタデータ) (2020-09-23T21:54:36Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。