論文の概要: Deep neural network loses attention to adversarial images
- arxiv url: http://arxiv.org/abs/2106.05657v1
- Date: Thu, 10 Jun 2021 11:06:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-12 14:05:53.594135
- Title: Deep neural network loses attention to adversarial images
- Title(参考訳): ディープニューラルネットワークは敵画像に注意を失う
- Authors: Shashank Kotyan and Danilo Vasconcellos Vargas
- Abstract要約: 敵アルゴリズムは様々なタスクにおいてニューラルネットワークに対して有効であることが示されている。
Pixelアタックの場合、乱れたピクセルがネットワークの注意を自分自身に呼び出すか、それらから注意を逸らすかを示す。
また,どちらの攻撃もサリエンシマップとアクティベーションマップに異なる影響を及ぼすことを示した。
- 参考スコア(独自算出の注目度): 11.650381752104296
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial algorithms have shown to be effective against neural networks for
a variety of tasks. Some adversarial algorithms perturb all the pixels in the
image minimally for the image classification task in image classification. In
contrast, some algorithms perturb few pixels strongly. However, very little
information is available regarding why these adversarial samples so diverse
from each other exist. Recently, Vargas et al. showed that the existence of
these adversarial samples might be due to conflicting saliency within the
neural network. We test this hypothesis of conflicting saliency by analysing
the Saliency Maps (SM) and Gradient-weighted Class Activation Maps (Grad-CAM)
of original and few different types of adversarial samples. We also analyse how
different adversarial samples distort the attention of the neural network
compared to original samples. We show that in the case of Pixel Attack,
perturbed pixels either calls the network attention to themselves or divert the
attention from them. Simultaneously, the Projected Gradient Descent Attack
perturbs pixels so that intermediate layers inside the neural network lose
attention for the correct class. We also show that both attacks affect the
saliency map and activation maps differently. Thus, shedding light on why some
defences successful against some attacks remain vulnerable against other
attacks. We hope that this analysis will improve understanding of the existence
and the effect of adversarial samples and enable the community to develop more
robust neural networks.
- Abstract(参考訳): 敵アルゴリズムは様々なタスクにおいてニューラルネットワークに対して有効であることが示されている。
いくつかの逆アルゴリズムは、画像分類タスクにおいて、画像内のすべてのピクセルを最小限に摂動する。
対照的に、いくつかのアルゴリズムはピクセルを強く摂動する。
しかし、なぜこれらの対立するサンプルが互いにこれほど多様なのかについては、ほとんど情報がない。
最近、Vargasら。
敵のサンプルの存在は ニューラルネットワーク内の 塩分濃度の相反によるものかもしれない
本研究では,Saliency Maps (SM) と Gradient-weighted Class Activation Maps (Grad-CAM) を原型および少数種の逆数サンプルから解析し,相反する正則性仮説を検証した。
また、元のサンプルと比較して、異なる対向サンプルがニューラルネットワークの注意を歪めているかを分析する。
Pixel Attackの場合、摂動ピクセルはネットワークの注意を自分自身に呼び出すか、それらから注意を逸らすかを示す。
同時に、投影された勾配降下は、ニューラルネットワーク内の中間層が正しいクラスに注意を払わないように画素を摂動させる。
また,どちらの攻撃もサリエンシマップとアクティベーションマップに異なる影響を及ぼすことを示した。
したがって、ある攻撃に対して成功した防衛部隊が、他の攻撃に対して脆弱なままである理由に光を当てる。
この分析によって、敵のサンプルの存在と効果の理解が向上し、コミュニティがより堅牢なニューラルネットワークを開発することを期待する。
関連論文リスト
- Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - Chromatic and spatial analysis of one-pixel attacks against an image
classifier [0.0]
本研究では,1ピクセル攻撃の色分布と空間分布を解析する方法を提案する。
より効果的な攻撃ではピクセルの色が変化し,画像の中心に攻撃が配置されることが示される。
論文 参考訳(メタデータ) (2021-05-28T12:21:58Z) - Black-box adversarial attacks using Evolution Strategies [3.093890460224435]
画像分類タスクに対するブラックボックス対向攻撃の生成について検討する。
その結果、攻撃されたニューラルネットワークは、ほとんどの場合、比較中のすべてのアルゴリズムによって簡単に騙されることがわかった。
一部のブラックボックス最適化アルゴリズムは、攻撃成功率と効率の両面で、よりハードな設定で優れている。
論文 参考訳(メタデータ) (2021-04-30T15:33:07Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - SpectralDefense: Detecting Adversarial Attacks on CNNs in the Fourier
Domain [10.418647759223964]
入力画像と特徴マップのフーリエ領域における解析が,良質なテストサンプルと敵画像の区別にどのように役立つかを示す。
2つの新しい検出方法を提案する。
論文 参考訳(メタデータ) (2021-03-04T12:48:28Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - Recurrent Attention Model with Log-Polar Mapping is Robust against
Adversarial Attacks [0.0]
我々は,注目によって制御される対数極性視野を持つデータを連続的に収集する,新しいニューラルネットワークモデルを開発した。
本研究では,SPSA攻撃とPGD攻撃に対する防御として,この設計の有効性を実証する。
論文 参考訳(メタデータ) (2020-02-13T08:40:48Z) - Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain [2.4704085162861693]
Deep Neural Network(DNN)分類器を実生活で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
我々はFast Gradient Sign Methodを適用し、顔画像データセットに摂動を導入し、異なる分類器で出力をテストする。
我々は、最小の敵対的知識を前提に、さまざまなブラックボックス攻撃アルゴリズムを顔画像データセット上に構築する。
論文 参考訳(メタデータ) (2020-01-30T00:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。