論文の概要: NoiseCAM: Explainable AI for the Boundary Between Noise and Adversarial
Attacks
- arxiv url: http://arxiv.org/abs/2303.06151v1
- Date: Thu, 9 Mar 2023 22:07:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 20:52:15.679130
- Title: NoiseCAM: Explainable AI for the Boundary Between Noise and Adversarial
Attacks
- Title(参考訳): NoiseCAM: ノイズと敵の攻撃の境界線を記述可能なAI
- Authors: Wenkai Tan, Justus Renkhoff, Alvaro Velasquez, Ziyu Wang, Lusi Li,
Jian Wang, Shuteng Niu, Fan Yang, Yongxin Liu, Houbing Song
- Abstract要約: 敵の攻撃は、簡単にニューラルネットワークを誤認し、間違った決定を導く。
本稿では,勾配クラスアクティベーションマップ(GradCAM)を用いて,VGG-16ネットワークの動作偏差を解析する。
また,グローバルおよび画素レベルの重み付けされたクラスアクティベーションマップからの情報を統合する新しいノイズCAMアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 21.86821880164293
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep Learning (DL) and Deep Neural Networks (DNNs) are widely used in various
domains. However, adversarial attacks can easily mislead a neural network and
lead to wrong decisions. Defense mechanisms are highly preferred in
safety-critical applications. In this paper, firstly, we use the gradient class
activation map (GradCAM) to analyze the behavior deviation of the VGG-16
network when its inputs are mixed with adversarial perturbation or Gaussian
noise. In particular, our method can locate vulnerable layers that are
sensitive to adversarial perturbation and Gaussian noise. We also show that the
behavior deviation of vulnerable layers can be used to detect adversarial
examples. Secondly, we propose a novel NoiseCAM algorithm that integrates
information from globally and pixel-level weighted class activation maps. Our
algorithm is susceptible to adversarial perturbations and will not respond to
Gaussian random noise mixed in the inputs. Third, we compare detecting
adversarial examples using both behavior deviation and NoiseCAM, and we show
that NoiseCAM outperforms behavior deviation modeling in its overall
performance. Our work could provide a useful tool to defend against certain
adversarial attacks on deep neural networks.
- Abstract(参考訳): ディープラーニング(DL)とディープニューラルネットワーク(DNN)は、様々なドメインで広く使われている。
しかし、敵の攻撃は簡単にニューラルネットワークを誤認し、間違った決定を下す可能性がある。
防衛機構は安全クリティカルな用途で非常に好まれる。
本稿では,まず勾配クラスアクティベーションマップ(gradle class activation map,gradcam)を用いて,vgg-16ネットワークの入力と逆摂動やガウス雑音を混合した場合の動作偏差解析を行う。
特に, 本手法では, 対向摂動やガウス雑音に敏感な脆弱な層を見つけることができる。
また, 脆弱層の挙動偏差は, 逆例の検出にも有効であることを示した。
次に,グローバルおよびピクセルレベル重み付けクラスアクティベーションマップからの情報を統合した新しいノイズカムアルゴリズムを提案する。
本アルゴリズムは逆摂動に影響を受けやすく,入力に混入したガウスランダムノイズに応答しない。
第3に,行動偏差とノイズカムの両方を用いた逆例の検出を比較し,ノイズカムが全体の動作偏差モデルを上回ることを示した。
我々の研究は、ディープニューラルネットワークに対する特定の敵攻撃を防御する有用なツールを提供するかもしれない。
関連論文リスト
- Discerning the Chaos: Detecting Adversarial Perturbations while Disentangling Intentional from Unintentional Noises [41.57633238074266]
本稿では, 視覚変換器を改良し, 検出層を組み込んだクラス独立適応入出力検出ネットワークCIAIを紹介する。
CIAIは、意図的な(敵対的な)攻撃と意図しないノイズの両方を検出するために、最大平均離散性とセンターロスを組み合わせた新しい損失関数を採用している。
論文 参考訳(メタデータ) (2024-09-29T09:10:43Z) - Exploring Adversarial Attacks on Neural Networks: An Explainable
Approach [18.063187159491182]
入力画像に逆ノイズと統計的に類似したガウスランダムノイズを混合した場合のVGG-16モデルの応答特性を解析する。
私たちの研究は、より信頼性の高いディープニューラルネットワーク(DNN)モデルの開発に関する貴重な洞察を提供することができます。
論文 参考訳(メタデータ) (2023-03-08T07:59:44Z) - Beyond Pretrained Features: Noisy Image Modeling Provides Adversarial
Defense [52.66971714830943]
マスク付き画像モデリング(MIM)は、自己教師付き視覚表現学習のフレームワークとして普及している。
本稿では,この強力な自己教師型学習パラダイムが,下流の分類器に対して対角的ロバスト性を提供する方法について検討する。
本稿では,デノナイジングのためのデコーダを用いて,デノナイジングのための対角防御手法を提案する。
論文 参考訳(メタデータ) (2023-02-02T12:37:24Z) - Detecting Adversaries, yet Faltering to Noise? Leveraging Conditional
Variational AutoEncoders for Adversary Detection in the Presence of Noisy
Images [0.7734726150561086]
条件変分オートエンコーダ(CVAE)は、知覚不能な画像摂動を検出するのに驚くほど優れている。
画像分類ネットワーク上での敵攻撃を検出するために,CVAEを効果的に利用する方法を示す。
論文 参考訳(メタデータ) (2021-11-28T20:36:27Z) - On Procedural Adversarial Noise Attack And Defense [2.5388455804357952]
逆の例では、ニューラルネットワークが入力画像に小さな修正を加えて予測エラーを発生させる。
本稿では,手続き型雑音関数に基づく2つのユニバーサル対向摂動(UAP)生成手法を提案する。
セマンティック表現を変更することなく、我々の手法によって生成された敵の例は攻撃に対して優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-10T02:47:01Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Removing Adversarial Noise in Class Activation Feature Space [160.78488162713498]
クラスアクティベーション機能空間において,自己監視型対人訓練機構を実装することにより,対人雑音の除去を提案する。
クラスアクティベーション機能空間における敵対例と自然な例の間の距離を最小にするために、デノイジングモデルを訓練する。
経験的評価により, 従来の手法と比較して, 敵対的堅牢性が有意に向上できることが示された。
論文 参考訳(メタデータ) (2021-04-19T10:42:24Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Improved Detection of Adversarial Images Using Deep Neural Networks [2.3993545400014873]
近年の研究では、分類タスクに使用される機械学習モデルは、敵の例に弱いことが示されている。
本稿では,逆入力を検出するための特徴マップデノゲーションという新しい手法を提案する。
逆例からなる混合データセットにおける検出性能を示す。
論文 参考訳(メタデータ) (2020-07-10T19:02:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。