論文の概要: Interpreting Attributions and Interactions of Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2108.06895v1
- Date: Mon, 16 Aug 2021 04:59:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 15:29:26.943475
- Title: Interpreting Attributions and Interactions of Adversarial Attacks
- Title(参考訳): 敵攻撃の属性と相互作用の解釈
- Authors: Xin Wang, Shuyun Lin, Hao Zhang, Yufei Zhu, Quanshi Zhang
- Abstract要約: 本稿では、敵の摂動が攻撃課題にどのように貢献するかという観点から、敵の攻撃を説明することを目的とする。
逆摂動画素間の相互作用を定義し定量化し、摂動マップ全体を比較的独立した摂動成分に分解する。
- 参考スコア(独自算出の注目度): 19.50612458496236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to explain adversarial attacks in terms of how adversarial
perturbations contribute to the attacking task. We estimate attributions of
different image regions to the decrease of the attacking cost based on the
Shapley value. We define and quantify interactions among adversarial
perturbation pixels, and decompose the entire perturbation map into relatively
independent perturbation components. The decomposition of the perturbation map
shows that adversarially-trained DNNs have more perturbation components in the
foreground than normally-trained DNNs. Moreover, compared to the
normally-trained DNN, the adversarially-trained DNN have more components which
mainly decrease the score of the true category. Above analyses provide new
insights into the understanding of adversarial attacks.
- Abstract(参考訳): 本稿では,敵の摂動が攻撃課題にどのように寄与するかという観点から,敵の攻撃を説明することを目的とする。
我々は,シェープリー値に基づいて,攻撃コストの低減に対する異なる画像領域の属性を推定する。
逆摂動画素間の相互作用を定義し定量化し、摂動マップ全体を比較的独立した摂動成分に分解する。
摂動マップの分解は、逆向きに訓練されたDNNが通常訓練されたDNNよりも前景の摂動成分が多いことを示している。
さらに、通常訓練されたDNNと比較して、逆学習されたDNNは、真のカテゴリのスコアを主に減少させる多くのコンポーネントを持つ。
分析は敵の攻撃に対する理解に新たな洞察を与える。
関連論文リスト
- Attack Anything: Blind DNNs via Universal Background Adversarial Attack [17.73886733971713]
ディープニューラルネットワーク(DNN)は、敵の摂動に感受性があり、弱いことが広く実証されている。
本稿では,攻撃効果を多種多様な対象,モデル,タスク間でよく一般化する,攻撃の背景攻撃フレームワークを提案する。
我々は,様々な対象,モデル,タスクにまたがるデジタルドメインと物理ドメインの両方において,包括的かつ厳密な実験を行い,提案手法のあらゆる攻撃の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-17T12:46:53Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - A Unified Game-Theoretic Interpretation of Adversarial Robustness [39.64586231421121]
本稿では,異なる敵攻撃と防御方法を説明する統一的な視点を提供する。
本研究は, 敵の摂動と強靭性を統一する可能性があり, 既存の防御法を原則的に説明できる。
論文 参考訳(メタデータ) (2021-11-05T14:57:49Z) - Adversarial Robustness through the Lens of Causality [105.51753064807014]
ディープニューラルネットワークの敵対的脆弱性は、機械学習において大きな注目を集めている。
我々は、因果関係を敵対的脆弱性の軽減に組み込むことを提案する。
我々の手法は、敵の脆弱性を緩和するために因果性を利用する最初の試みと見なすことができる。
論文 参考訳(メタデータ) (2021-06-11T06:55:02Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Game-theoretic Understanding of Adversarially Learned Features [38.19291233245746]
本論文は,DNNの信号処理挙動という,新たな種別からの敵対攻撃と防御を理解することを目的とする。
6つの性質を満たすゲーム理論における多階相互作用を新たに定義する。
論文 参考訳(メタデータ) (2021-03-12T15:56:28Z) - Interpreting Deep Neural Networks with Relative Sectional Propagation by
Analyzing Comparative Gradients and Hostile Activations [37.11665902583138]
DNN(Deep Neural Networks)の出力予測を分解するための新しいアトリビューション手法であるRelative Sectional Propagation(RSP)を提案する。
我々は、敵対的因子をターゲットの属性を見つけるのを妨げる要素として定義し、活性化ニューロンの非抑制的な性質を克服するために区別可能な方法でそれを伝播させる。
本手法により,従来の帰属法と比較して,DNNのクラス識別性や活性化ニューロンの詳細な解明により,DNNの予測を分解することができる。
論文 参考訳(メタデータ) (2020-12-07T03:11:07Z) - Improving adversarial robustness of deep neural networks by using
semantic information [17.887586209038968]
対人訓練は、敵の堅牢性を改善するための主要な方法であり、対人攻撃に対する第一線である。
本稿では,ネットワーク全体から,あるクラスに対応する決定境界に近い領域の重要部分に焦点を移す,対向ロバスト性の問題に対する新たな視点を提供する。
MNISTとCIFAR-10データセットの実験的結果は、この手法がトレーニングデータから非常に小さなデータセットを使用しても、敵の堅牢性を大幅に向上することを示している。
論文 参考訳(メタデータ) (2020-08-18T10:23:57Z) - Proper Network Interpretability Helps Adversarial Robustness in
Classification [91.39031895064223]
本稿では,解釈の適切な測定を行うことで,予測回避攻撃が解釈の不一致を引き起こすのを防ぐことは困難であることを示す。
我々は,頑健な解釈の促進にのみ焦点をあてて,解釈可能性に配慮した防御手法を開発した。
その結果,我々の防衛力は,強靭な分類と頑健な解釈の両方を達成し,大規模な摂動攻撃に対する最先端の対人訓練方法よりも優れていた。
論文 参考訳(メタデータ) (2020-06-26T01:31:31Z) - Dynamic Divide-and-Conquer Adversarial Training for Robust Semantic
Segmentation [79.42338812621874]
敵のトレーニングは、敵の摂動に対するディープニューラルネットワークの堅牢性を改善することを約束している。
本研究は, 敵とクリーンの両方のサンプルに対して良好に動作可能な, 汎用的な敵の訓練手順を定式化する。
本稿では,防衛効果を高めるための動的分割対対人訓練(DDC-AT)戦略を提案する。
論文 参考訳(メタデータ) (2020-03-14T05:06:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。