論文の概要: Understanding Adversarial Examples Through Deep Neural Network's
Response Surface and Uncertainty Regions
- arxiv url: http://arxiv.org/abs/2107.00003v1
- Date: Wed, 30 Jun 2021 02:38:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-02 13:41:57.246713
- Title: Understanding Adversarial Examples Through Deep Neural Network's
Response Surface and Uncertainty Regions
- Title(参考訳): ディープニューラルネットワークの応答面と不確かさ領域による逆例の理解
- Authors: Juan Shu and Bowei Xi and Charles Kamhoua
- Abstract要約: 本研究は,DNN対逆例の根本原因について考察する。
既存の攻撃アルゴリズムは、わずかから数百の敵の例から生成される。
クリーンサンプルが1つ与えられた場合, クリーンサンプルの小さな近傍に, 無限に多くの逆画像が存在することを示す。
- 参考スコア(独自算出の注目度): 1.8047694351309205
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep neural network (DNN) is a popular model implemented in many systems to
handle complex tasks such as image classification, object recognition, natural
language processing etc. Consequently DNN structural vulnerabilities become
part of the security vulnerabilities in those systems. In this paper we study
the root cause of DNN adversarial examples. We examine the DNN response surface
to understand its classification boundary. Our study reveals the structural
problem of DNN classification boundary that leads to the adversarial examples.
Existing attack algorithms can generate from a handful to a few hundred
adversarial examples given one clean image. We show there are infinitely many
adversarial images given one clean sample, all within a small neighborhood of
the clean sample. We then define DNN uncertainty regions and show
transferability of adversarial examples is not universal. We also argue that
generalization error, the large sample theoretical guarantee established for
DNN, cannot adequately capture the phenomenon of adversarial examples. We need
new theory to measure DNN robustness.
- Abstract(参考訳): deep neural network(dnn)は、画像分類、オブジェクト認識、自然言語処理などの複雑なタスクを処理するために、多くのシステムで実装されている一般的なモデルである。
そのため、DNN構造上の脆弱性はこれらのシステムのセキュリティ上の脆弱性の一部となる。
本稿では,DNN対逆例の根本原因について検討する。
分類境界を理解するためにDNN応答面について検討する。
本研究は, DNN分類境界の構造的問題点を明らかにする。
既存の攻撃アルゴリズムは、1つのクリーンな画像から、ほんの数百から数百の敵の例を生成することができる。
クリーンサンプルが1つ与えられた場合, クリーンサンプルの小さな近傍に, 無限に多くの逆画像が存在することを示す。
次に、DNNの不確実領域を定義し、逆例の転送可能性を示す。
また,dnnで確立された大規模サンプル理論的保証である一般化誤差は,逆例の現象を十分に捉えることができない。
DNNの堅牢性を測定する新しい理論が必要です。
関連論文リスト
- CausAdv: A Causal-based Framework for Detecting Adversarial Examples [0.0]
畳み込みニューラルネットワーク(CNN)は、入力の逆方向の摂動に対して脆弱である。
これらの入力は、自然画像とほとんど区別できないように見えるが、CNNアーキテクチャによって誤って分類されている。
本稿では,反実的推論に基づく逆例検出のための因果的フレームワークCausAdvを提案する。
論文 参考訳(メタデータ) (2024-10-29T22:57:48Z) - Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks [5.024667090792856]
ディープニューラルネットワーク(DNN)は、分類、認識、予測など、さまざまなアプリケーションで注目を集めている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
本研究の目的は、敵攻撃に対する現代の防御機構の有効性と一般化に挑戦することである。
論文 参考訳(メタデータ) (2023-08-12T05:21:34Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Verification-Aided Deep Ensemble Selection [4.290931412096984]
ディープニューラルネットワーク(DNN)は、様々な複雑なタスクを実現するための選択技術となっている。
正しく分類された入力に対する知覚できない摂動でさえ、DNNによる誤分類につながる可能性がある。
本稿では,同時エラーの少ないアンサンブル構成を同定するための方法論を考案する。
論文 参考訳(メタデータ) (2022-02-08T14:36:29Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - Developing and Defeating Adversarial Examples [0.0]
近年の研究では、ディープニューラルネットワーク(DNN)が敵の例によって攻撃可能であることが示されている。
本研究では, ヨーロV3物体検出器を攻撃するための逆例を開発する。
次に、これらの例を検出し、中和する戦略について研究する。
論文 参考訳(メタデータ) (2020-08-23T21:00:33Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。