論文の概要: Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2308.06467v1
- Date: Sat, 12 Aug 2023 05:21:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 17:15:24.374356
- Title: Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks
- Title(参考訳): 結局のところ、ニューラルネットワークのロバスト性の評価は敵の攻撃を未然に防ぐ
- Authors: Roman Garaev, Bader Rasheed and Adil Khan
- Abstract要約: ディープニューラルネットワーク(DNN)は、分類、認識、予測など、さまざまなアプリケーションで注目を集めている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
本研究の目的は、敵攻撃に対する現代の防御機構の有効性と一般化に挑戦することである。
- 参考スコア(独自算出の注目度): 5.024667090792856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have gained prominence in various applications,
such as classification, recognition, and prediction, prompting increased
scrutiny of their properties. A fundamental attribute of traditional DNNs is
their vulnerability to modifications in input data, which has resulted in the
investigation of adversarial attacks. These attacks manipulate the data in
order to mislead a DNN. This study aims to challenge the efficacy and
generalization of contemporary defense mechanisms against adversarial attacks.
Specifically, we explore the hypothesis proposed by Ilyas et. al, which posits
that DNN image features can be either robust or non-robust, with adversarial
attacks targeting the latter. This hypothesis suggests that training a DNN on a
dataset consisting solely of robust features should produce a model resistant
to adversarial attacks. However, our experiments demonstrate that this is not
universally true. To gain further insights into our findings, we analyze the
impact of adversarial attack norms on DNN representations, focusing on samples
subjected to $L_2$ and $L_{\infty}$ norm attacks. Further, we employ canonical
correlation analysis, visualize the representations, and calculate the mean
distance between these representations and various DNN decision boundaries. Our
results reveal a significant difference between $L_2$ and $L_{\infty}$ norms,
which could provide insights into the potential dangers posed by $L_{\infty}$
norm attacks, previously underestimated by the research community.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、分類、認識、予測といった様々なアプリケーションで注目され、それらの特性の精査が促進されている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
これらの攻撃はDNNを誤解させるためにデータを操作します。
本研究は,敵の攻撃に対する現代防衛機構の有効性と一般化に挑戦することを目的とする。
具体的には、イリヤスらが提案した仮説を考察する。
DNNのイメージ機能は堅牢か、非ロバストかのいずれかであり、後者をターゲットとする敵攻撃だ。
この仮説は、堅牢な特徴のみからなるデータセット上でDNNをトレーニングすると、敵攻撃に耐性のあるモデルが生成されることを示唆している。
しかし、我々の実験は、これが普遍的に真実ではないことを示した。
そこで本研究では,DNN表現に対する敵対的攻撃規範の影響を解析し,DNN表現に対して$L_2$および$L_{\infty}$ノルム攻撃を受けるサンプルに着目した。
さらに,標準相関分析を行い,表現を可視化し,これらの表現と種々のdnn決定境界の平均距離を計算する。
研究コミュニティがこれまで過小評価していた$L2$と$L_{\infty}$ノルムの間に大きな違いが見られ、これは、$L_{\infty}$ノルム攻撃によって引き起こされる潜在的な危険性についての洞察を与えることができる。
関連論文リスト
- Joint Universal Adversarial Perturbations with Interpretations [19.140429650679593]
本稿では,JUAP(Universal Reversarial Perturbation)を生成する新たな攻撃フレームワークを提案する。
我々の知る限りでは、これはDNNと解釈の両方を共同攻撃するUAPを研究する最初の試みである。
論文 参考訳(メタデータ) (2024-08-03T08:58:04Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - On the Robustness of Bayesian Neural Networks to Adversarial Attacks [11.277163381331137]
敵対的攻撃に対する脆弱性は、安全クリティカルなアプリケーションでディープラーニングを採用する上で、大きなハードルのひとつです。
データ分布の縮退の結果、勾配に基づく攻撃に対する脆弱性が生じることを示す。
BNN後部分布に対する損失の予測勾配は、後部からサンプリングされた各ニューラルネットワークが勾配に基づく攻撃に対して脆弱である場合でも消滅していることを示す。
論文 参考訳(メタデータ) (2022-07-13T12:27:38Z) - On the Relationship Between Adversarial Robustness and Decision Region
in Deep Neural Network [26.656444835709905]
敵攻撃時のモデルロバスト性に影響を与えるディープニューラルネットワーク(DNN)の内部特性について検討する。
本稿では,より頻度の高いトレーニングサンプルを配置するPRS(Populated Region Set)の概念を提案する。
論文 参考訳(メタデータ) (2022-07-07T16:06:34Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Recent Advances in Understanding Adversarial Robustness of Deep Neural
Networks [15.217367754000913]
敵の例に抵抗する高い堅牢性を持つモデルを得ることがますます重要である。
我々は、敵の攻撃と堅牢性について、予備的な定義を与える。
我々は、頻繁に使用されるベンチマークについて研究し、理論的に証明された敵の堅牢性の境界について言及する。
論文 参考訳(メタデータ) (2020-11-03T07:42:53Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z) - Robustness of Bayesian Neural Networks to Gradient-Based Attacks [9.966113038850946]
敵対的攻撃に対する脆弱性は、安全クリティカルなアプリケーションでディープラーニングを採用する上で、大きなハードルのひとつです。
データ分布の縮退の結果、勾配に基づく攻撃に対する脆弱性が生じることを示す。
以上の結果から,BNN後頭葉は勾配に基づく対向攻撃に対して頑健であることが示唆された。
論文 参考訳(メタデータ) (2020-02-11T13:03:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。