論文の概要: Exploring Adversarial Attacks on Neural Networks: An Explainable
Approach
- arxiv url: http://arxiv.org/abs/2303.06032v1
- Date: Wed, 8 Mar 2023 07:59:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 14:25:19.454574
- Title: Exploring Adversarial Attacks on Neural Networks: An Explainable
Approach
- Title(参考訳): ニューラルネットワークにおける敵攻撃の探索 - 説明可能なアプローチ
- Authors: Justus Renkhoff, Wenkai Tan, Alvaro Velasquez, illiam Yichen Wang,
Yongxin Liu, Jian Wang, Shuteng Niu, Lejla Begic Fazlic, Guido Dartmann,
Houbing Song
- Abstract要約: 入力画像に逆ノイズと統計的に類似したガウスランダムノイズを混合した場合のVGG-16モデルの応答特性を解析する。
私たちの研究は、より信頼性の高いディープニューラルネットワーク(DNN)モデルの開発に関する貴重な洞察を提供することができます。
- 参考スコア(独自算出の注目度): 18.063187159491182
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep Learning (DL) is being applied in various domains, especially in
safety-critical applications such as autonomous driving. Consequently, it is of
great significance to ensure the robustness of these methods and thus
counteract uncertain behaviors caused by adversarial attacks. In this paper, we
use gradient heatmaps to analyze the response characteristics of the VGG-16
model when the input images are mixed with adversarial noise and statistically
similar Gaussian random noise. In particular, we compare the network response
layer by layer to determine where errors occurred. Several interesting findings
are derived. First, compared to Gaussian random noise, intentionally generated
adversarial noise causes severe behavior deviation by distracting the area of
concentration in the networks. Second, in many cases, adversarial examples only
need to compromise a few intermediate blocks to mislead the final decision.
Third, our experiments revealed that specific blocks are more vulnerable and
easier to exploit by adversarial examples. Finally, we demonstrate that the
layers $Block4\_conv1$ and $Block5\_cov1$ of the VGG-16 model are more
susceptible to adversarial attacks. Our work could provide valuable insights
into developing more reliable Deep Neural Network (DNN) models.
- Abstract(参考訳): 深層学習(DL)は様々な分野、特に自律運転のような安全クリティカルな応用に応用されている。
その結果,これらの手法の堅牢性を確保することが重要であり,敵の攻撃による不確実な行動に対処することが重要である。
本稿では,VGG-16モデルの逆ノイズと統計的に類似したガウスランダムノイズとを混合した場合の応答特性を勾配熱マップを用いて解析する。
特に,ネットワーク応答層を層単位で比較し,エラーの発生箇所を決定する。
いくつかの興味深い発見が導かれる。
まず、gaussian random noiseと比較して、故意に発生する敵対的ノイズは、ネットワーク内の濃度の領域をそらすことによって、厳しい行動の偏りを引き起こす。
第二に、多くの場合、敵の例は最終決定を誤解させるためにいくつかの中間ブロックを妥協するしかありません。
第三に、我々の実験により、特定のブロックはより脆弱で、敵の例によって利用しやすいことが判明した。
最後に、VGG-16モデルの層である$Block4\_conv1$と$Block5\_cov1$は、敵攻撃に対してより感受性が高いことを示す。
私たちの研究は、より信頼性の高いディープニューラルネットワーク(DNN)モデルの開発に関する貴重な洞察を提供することができます。
関連論文リスト
- Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Towards an Accurate and Secure Detector against Adversarial
Perturbations [58.02078078305753]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然・人工データの識別的分解を通じて、敵対的なパターンを検出する。
本研究では,秘密鍵を用いた空間周波数判別分解に基づく,高精度かつセキュアな対向検波器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - NoiseCAM: Explainable AI for the Boundary Between Noise and Adversarial
Attacks [21.86821880164293]
敵の攻撃は、簡単にニューラルネットワークを誤認し、間違った決定を導く。
本稿では,勾配クラスアクティベーションマップ(GradCAM)を用いて,VGG-16ネットワークの動作偏差を解析する。
また,グローバルおよび画素レベルの重み付けされたクラスアクティベーションマップからの情報を統合する新しいノイズCAMアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-09T22:07:41Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - A Frequency Perspective of Adversarial Robustness [72.48178241090149]
理論的および経験的知見を参考に,周波数に基づく対向例の理解について述べる。
分析の結果,逆転例は高周波でも低周波成分でもないが,単にデータセット依存であることがわかった。
本稿では、一般に観測される精度対ロバスト性トレードオフの周波数に基づく説明法を提案する。
論文 参考訳(メタデータ) (2021-10-26T19:12:34Z) - Pruning in the Face of Adversaries [0.0]
ニューラルネットワークのプルーニングがL-0,L-2,L-infinity攻撃に対する対向的ロバスト性に及ぼす影響を評価する。
その結果,ニューラルネットワークのプルーニングと対向ロバスト性は相互に排他的ではないことが確認された。
分析を敵のシナリオに付加的な仮定を取り入れた状況にまで拡張し、状況によって異なる戦略が最適であることを示す。
論文 参考訳(メタデータ) (2021-08-19T09:06:16Z) - On Procedural Adversarial Noise Attack And Defense [2.5388455804357952]
逆の例では、ニューラルネットワークが入力画像に小さな修正を加えて予測エラーを発生させる。
本稿では,手続き型雑音関数に基づく2つのユニバーサル対向摂動(UAP)生成手法を提案する。
セマンティック表現を変更することなく、我々の手法によって生成された敵の例は攻撃に対して優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-10T02:47:01Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Audio-Visual Event Recognition through the lens of Adversary [38.497204362659296]
本研究は, 対向雑音のレンズによるマルチモーダル学習に関連するいくつかの重要な課題について検討することを目的とする。
我々は,Google AudioSetでトレーニングされた最先端のニューラルモデルを攻撃するために,敵対的な例を構築した。
論文 参考訳(メタデータ) (2020-11-15T01:36:09Z) - How benign is benign overfitting? [96.07549886487526]
深層ニューラルネットワークにおける敵対的脆弱性の2つの原因について検討する。
ディープニューラルネットワークは基本的にラベルノイズがある場合でも、トレーニングエラーをゼロにする。
我々は、ラベルノイズを敵対的脆弱性の原因の1つとみなしている。
論文 参考訳(メタデータ) (2020-07-08T11:07:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。