論文の概要: Imperceptible Adversarial Attack on Deep Neural Networks from Image
Boundary
- arxiv url: http://arxiv.org/abs/2308.15344v1
- Date: Tue, 29 Aug 2023 14:41:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 13:43:35.939590
- Title: Imperceptible Adversarial Attack on Deep Neural Networks from Image
Boundary
- Title(参考訳): 画像境界からのディープニューラルネットワークに対する知覚不能な逆攻撃
- Authors: Fahad Alrasheedi, Xin Zhong
- Abstract要約: 逆例(AE)はディープニューラルネットワーク(DNN)を簡単に騙すことができる
本研究は,入力画像境界をシステム的に攻撃し,AEを検出できない敵攻撃を提案する。
- 参考スコア(独自算出の注目度): 1.6589012298747952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although Deep Neural Networks (DNNs), such as the convolutional neural
networks (CNN) and Vision Transformers (ViTs), have been successfully applied
in the field of computer vision, they are demonstrated to be vulnerable to
well-sought Adversarial Examples (AEs) that can easily fool the DNNs. The
research in AEs has been active, and many adversarial attacks and explanations
have been proposed since they were discovered in 2014. The mystery of the AE's
existence is still an open question, and many studies suggest that DNN training
algorithms have blind spots. The salient objects usually do not overlap with
boundaries; hence, the boundaries are not the DNN model's attention.
Nevertheless, recent studies show that the boundaries can dominate the behavior
of the DNN models. Hence, this study aims to look at the AEs from a different
perspective and proposes an imperceptible adversarial attack that systemically
attacks the input image boundary for finding the AEs. The experimental results
have shown that the proposed boundary attacking method effectively attacks six
CNN models and the ViT using only 32% of the input image content (from the
boundaries) with an average success rate (SR) of 95.2% and an average peak
signal-to-noise ratio of 41.37 dB. Correlation analyses are conducted,
including the relation between the adversarial boundary's width and the SR and
how the adversarial boundary changes the DNN model's attention. This paper's
discoveries can potentially advance the understanding of AEs and provide a
different perspective on how AEs can be constructed.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)やビジョントランスフォーマー(ViT)のようなディープニューラルネットワーク(DNN)はコンピュータビジョンの分野でうまく応用されているが、それらはDNNを騙し易く、よく考えられた敵例(AE)に弱いことが示されている。
AEsの研究は活発に行われており、2014年に発見されて以来、多くの敵対的な攻撃や説明が提案されている。
AEの存在の謎はまだ未解決の問題であり、DNNトレーニングアルゴリズムには盲点があることが多くの研究で示唆されている。
正常なオブジェクトは通常境界と重複しないため、境界はDNNモデルの注意事項ではない。
しかしながら、最近の研究では、境界がDNNモデルの挙動を支配することが示されている。
そこで本研究では,異なる視点からAEを考察し,入力画像境界を体系的に攻撃してAEを見出す,知覚不能な敵攻撃を提案する。
実験の結果,提案手法は,入力画像の32%(境界値から)と平均成功率95.2%,平均ピーク信号-雑音比41.37dBを用いて,6つのCNNモデルとViTを効果的に攻撃することがわかった。
対向境界幅とSRの関係や、対向境界がDNNモデルの注意をどう変えるかといった相関解析を行った。
本論文の発見は,AEsの理解を深める可能性があり,AEsの構築方法の異なる視点を提供する。
関連論文リスト
- A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks [5.024667090792856]
ディープニューラルネットワーク(DNN)は、分類、認識、予測など、さまざまなアプリケーションで注目を集めている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
本研究の目的は、敵攻撃に対する現代の防御機構の有効性と一般化に挑戦することである。
論文 参考訳(メタデータ) (2023-08-12T05:21:34Z) - Be Your Own Neighborhood: Detecting Adversarial Example by the
Neighborhood Relations Built on Self-Supervised Learning [64.78972193105443]
本稿では,予測に有効な新しいAE検出フレームワークを提案する。
AEの異常な関係と拡張バージョンを区別して検出を行う。
表現を抽出し、ラベルを予測するために、既製の自己監視学習(SSL)モデルが使用される。
論文 参考訳(メタデータ) (2022-08-31T08:18:44Z) - Detecting and Recovering Adversarial Examples from Extracting Non-robust
and Highly Predictive Adversarial Perturbations [15.669678743693947]
敵の例(AE)は、ターゲットモデルを騙すために悪質に設計されている。
ディープニューラルネットワーク(DNN)は、敵の例に対して脆弱であることが示されている。
本稿では,被害者モデルに問い合わせることができないモデルフリーなAE検出手法を提案する。
論文 参考訳(メタデータ) (2022-06-30T08:48:28Z) - On the Minimal Adversarial Perturbation for Deep Neural Networks with
Provable Estimation Error [65.51757376525798]
敵の摂動の存在は、証明可能な堅牢性に関する興味深い研究ラインを開いた。
検証可能な結果は、コミットしたエラーを見積り、バウンドするものではない。
本稿では,最小対向摂動を求めるための2つの軽量戦略を提案する。
その結果, 提案手法は, 分類に近い試料の理論的距離とロバスト性を近似し, 敵攻撃に対する確実な保証が得られた。
論文 参考訳(メタデータ) (2022-01-04T16:40:03Z) - Detect and Defense Against Adversarial Examples in Deep Learning using
Natural Scene Statistics and Adaptive Denoising [12.378017309516965]
本稿では,DNN を敵のサンプルから守るためのフレームワークを提案する。
この検出器は、自然の景観統計を利用してAEを検出することを目的としている。
提案手法は最先端の防御技術より優れている。
論文 参考訳(メタデータ) (2021-07-12T23:45:44Z) - Understanding Adversarial Examples Through Deep Neural Network's
Response Surface and Uncertainty Regions [1.8047694351309205]
本研究は,DNN対逆例の根本原因について考察する。
既存の攻撃アルゴリズムは、わずかから数百の敵の例から生成される。
クリーンサンプルが1つ与えられた場合, クリーンサンプルの小さな近傍に, 無限に多くの逆画像が存在することを示す。
論文 参考訳(メタデータ) (2021-06-30T02:38:17Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z) - Hold me tight! Influence of discriminative features on deep network
boundaries [63.627760598441796]
本稿では,データセットの特徴と,サンプルから決定境界までの距離を関連付ける新しい視点を提案する。
これにより、トレーニングサンプルの位置を慎重に調整し、大規模ビジョンデータセットでトレーニングされたCNNの境界における誘発された変化を測定することができる。
論文 参考訳(メタデータ) (2020-02-15T09:29:36Z) - Robustness of Bayesian Neural Networks to Gradient-Based Attacks [9.966113038850946]
敵対的攻撃に対する脆弱性は、安全クリティカルなアプリケーションでディープラーニングを採用する上で、大きなハードルのひとつです。
データ分布の縮退の結果、勾配に基づく攻撃に対する脆弱性が生じることを示す。
以上の結果から,BNN後頭葉は勾配に基づく対向攻撃に対して頑健であることが示唆された。
論文 参考訳(メタデータ) (2020-02-11T13:03:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。