論文の概要: Exploring DNN Robustness Against Adversarial Attacks Using Approximate Multipliers
- arxiv url: http://arxiv.org/abs/2404.11665v1
- Date: Wed, 17 Apr 2024 18:03:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 13:40:17.463872
- Title: Exploring DNN Robustness Against Adversarial Attacks Using Approximate Multipliers
- Title(参考訳): 近似乗算器を用いた敵攻撃に対するDNNロバストネスの探索
- Authors: Mohammad Javad Askarizadeh, Ebrahim Farahmand, Jorge Castro-Godinez, Ali Mahani, Laura Cabrera-Quiros, Carlos Salazar-Garcia,
- Abstract要約: ディープニューラルネットワーク(DNN)は、ヘルスケアや自動運転など、多くの現実世界のアプリケーションで進歩している。
高い計算複雑性と敵攻撃に対する脆弱性は、現在進行中の課題である。
DNN層モデルにおける最先端近似乗算器の高精度な乗算器を均一に置き換えることで、DNNの様々な敵攻撃に対するロバスト性を、実現可能な時間で探索する。
- 参考スコア(独自算出の注目度): 1.3820778058499328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) have advanced in many real-world applications, such as healthcare and autonomous driving. However, their high computational complexity and vulnerability to adversarial attacks are ongoing challenges. In this letter, approximate multipliers are used to explore DNN robustness improvement against adversarial attacks. By uniformly replacing accurate multipliers for state-of-the-art approximate ones in DNN layer models, we explore the DNNs robustness against various adversarial attacks in a feasible time. Results show up to 7% accuracy drop due to approximations when no attack is present while improving robust accuracy up to 10% when attacks applied.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、ヘルスケアや自動運転など、多くの現実世界のアプリケーションで進歩している。
しかし、その高い計算複雑性と敵攻撃に対する脆弱性は、現在進行中の課題である。
このレターでは、近似乗算器を用いて、敵攻撃に対するDNNの堅牢性向上を探索する。
DNN層モデルにおける最先端近似乗算器の高精度な乗算器を均一に置き換えることにより、DNNの様々な敵攻撃に対するロバスト性を、実現可能な時間で探索する。
その結果、攻撃がない場合の近似により7%の精度低下がみられ、攻撃が適用された場合には10%の堅牢な精度が向上した。
関連論文リスト
- TEAM: Temporal Adversarial Examples Attack Model against Network Intrusion Detection System Applied to RNN [14.474274997214845]
我々は,textbfTemporal adversarial textbfExamples textbfAttack textbfModel textbf(TEAM)と呼ばれる特徴再構成に基づく新しいRNN敵攻撃モデルを提案する。
ほとんどの攻撃カテゴリーでは、TEAMはブラックボックスとホワイトボックスの両方でのNIDSの誤判定率を改善し、96.68%以上に達する。
論文 参考訳(メタデータ) (2024-09-19T05:26:04Z) - Robust Overfitting Does Matter: Test-Time Adversarial Purification With FGSM [5.592360872268223]
防衛戦略は通常、特定の敵攻撃法のためにディープニューラルネットワーク(DNN)を訓練し、この種の敵攻撃に対する防御において優れた堅牢性を達成することができる。
しかしながら、不慣れな攻撃モダリティに関する評価を受けると、実証的な証拠はDNNの堅牢性の顕著な劣化を示す。
ほとんどの防衛方法は、DNNの敵の堅牢性を改善するために、クリーンな例の精度を犠牲にすることが多い。
論文 参考訳(メタデータ) (2024-03-18T03:54:01Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks [5.024667090792856]
ディープニューラルネットワーク(DNN)は、分類、認識、予測など、さまざまなアプリケーションで注目を集めている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
本研究の目的は、敵攻撃に対する現代の防御機構の有効性と一般化に挑戦することである。
論文 参考訳(メタデータ) (2023-08-12T05:21:34Z) - A Mask-Based Adversarial Defense Scheme [3.759725391906588]
敵対的攻撃はディープニューラルネットワーク(DNN)の機能と精度を妨げる
敵攻撃による負の効果を軽減するため,DNNのためのMask-based Adversarial Defense scheme (MAD)を提案する。
論文 参考訳(メタデータ) (2022-04-21T12:55:27Z) - Is Approximation Universally Defensive Against Adversarial Attacks in
Deep Neural Networks? [0.0]
本稿では, 最先端の近似乗算器を用いて, 異なる近似DNNアクセラレータ (AxDNN) の逆解析を行う。
以上の結果から,AxDNNに対する敵対攻撃は53%の精度低下を引き起こすが,同一の攻撃は精度低下をほとんど起こさない可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-02T19:01:36Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Perceptual Adversarial Robustness: Defense Against Unseen Threat Models [58.47179090632039]
敵対的堅牢性の鍵となる課題は、人間の知覚を正確に数学的に特徴づけることの欠如である。
ニューラル・パーセプチュアル・脅威モデルの下で、我々は新しいパーセプチュアル・アタックとディフェンスを開発する。
NPTMは非常に広範であるため、知覚的攻撃に対する知覚的適応訓練(PAT)は、他の多くの種類の敵対的攻撃に対して堅牢性を与える。
論文 参考訳(メタデータ) (2020-06-22T22:40:46Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。