論文の概要: Understanding and Diagnosing Vulnerability under Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2007.08716v1
- Date: Fri, 17 Jul 2020 01:56:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:22:32.222589
- Title: Understanding and Diagnosing Vulnerability under Adversarial Attacks
- Title(参考訳): 敵攻撃時の脆弱性の理解と診断
- Authors: Haizhong Zheng, Ziqi Zhang, Honglak Lee, Atul Prakash
- Abstract要約: ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,潜在変数の分類に使用される特徴を説明するために,新しい解釈可能性手法であるInterpretGANを提案する。
また、各層がもたらす脆弱性を定量化する最初の診断方法も設計する。
- 参考スコア(独自算出の注目度): 62.661498155101654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are known to be vulnerable to adversarial
attacks. Currently, there is no clear insight into how slight perturbations
cause such a large difference in classification results and how we can design a
more robust model architecture. In this work, we propose a novel
interpretability method, InterpretGAN, to generate explanations for features
used for classification in latent variables. Interpreting the classification
process of adversarial examples exposes how adversarial perturbations influence
features layer by layer as well as which features are modified by
perturbations. Moreover, we design the first diagnostic method to quantify the
vulnerability contributed by each layer, which can be used to identify
vulnerable parts of model architectures. The diagnostic results show that the
layers introducing more information loss tend to be more vulnerable than other
layers. Based on the findings, our evaluation results on MNIST and CIFAR10
datasets suggest that average pooling layers, with lower information loss, are
more robust than max pooling layers for the network architectures studied in
this paper.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
現在、わずかな摂動がこのような分類結果に大きな違いを引き起こし、より堅牢なモデルアーキテクチャをどのように設計するかについて、明確な知見がない。
本研究では,潜在変数の分類に使用される特徴を説明するための新しい解釈可能性法である interpretgan を提案する。
対数例の分類過程を解釈すると、対数摂動が層によって特徴層にどのように影響するか、また摂動によってどの特徴が修正されるかが明らかになる。
さらに、モデルアーキテクチャの脆弱な部分を特定するために、各レイヤがもたらす脆弱性を定量化する最初の診断手法を設計する。
その結果、より多くの情報損失をもたらす層は他の層よりも脆弱になりがちであることが示された。
この結果から,MNISTおよびCIFAR10データセットを用いた評価結果から,ネットワークアーキテクチャの最大プール層よりも,情報損失の少ない平均プール層の方がロバストであることが示唆された。
関連論文リスト
- Characterization of topological structures in different neural network architectures [0.0]
本研究では,異なるアーキテクチャの表現を解析し,その表現を用いて有効な結果を得る方法を提案する。
これらの手法をResNet, VGG19, ViTアーキテクチャに適用し, 類似点と相違点が認められた。
論文 参考訳(メタデータ) (2024-07-08T18:02:18Z) - A Systematic Evaluation of Node Embedding Robustness [77.29026280120277]
本研究では,ノード埋め込みモデルのランダムおよび逆毒攻撃に対する経験的ロバスト性を評価する。
ネットワーク特性とノードラベルを用いて計算したエッジの追加,削除,再切り替えの戦略を比較した。
その結果,ノード分類はネットワーク再構成とは対照的に,高い性能劣化に悩まされていることがわかった。
論文 参考訳(メタデータ) (2022-09-16T17:20:23Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Identifying Layers Susceptible to Adversarial Attacks [3.1473798197405944]
一般的なニューラルネットワークアーキテクチャは、敵のサンプルによる攻撃を受けやすい。
その結果, 対立サンプルに対する感受性は, 低レベル特徴抽出層と関連していることがわかった。
この現象には2つの説明がある: 敵攻撃は攻撃クラスにある特徴と区別できない初期層から出力を出力するか、敵攻撃は非敵のサンプルの特徴と統計的に異なる初期層から出力を出力する。
論文 参考訳(メタデータ) (2021-07-10T12:38:49Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Examining the causal structures of deep neural networks using
information theory [0.0]
ディープニューラルネットワーク(DNN)は、ノードとデータセット間の相互情報を解析するなど、入力に対する応答のレベルでしばしば検討される。
DNNは因果関係のレベルで調べて、ネットワーク自体のレイヤ内で"何をするのか"を探ることもできる。
本稿では,学習中のDNNの因果構造の変化を定量化し,追跡するための情報理論に基づくメトリクススイートを紹介する。
論文 参考訳(メタデータ) (2020-10-26T19:53:16Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Multi-Objective Variational Autoencoder: an Application for Smart
Infrastructure Maintenance [1.2311105789643062]
マルチウェイセンシングデータにおけるスマートインフラストラクチャ損傷検出と診断のための多目的変分オートエンコーダ(MVA)手法を提案する。
そこで本手法では,複数のセンサから情報的特徴を抽出し,損傷同定に活用する。
論文 参考訳(メタデータ) (2020-03-11T01:30:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。