論文の概要: Hardware Accelerator for Adversarial Attacks on Deep Learning Neural
Networks
- arxiv url: http://arxiv.org/abs/2008.01219v1
- Date: Mon, 3 Aug 2020 21:55:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 07:22:34.224444
- Title: Hardware Accelerator for Adversarial Attacks on Deep Learning Neural
Networks
- Title(参考訳): ディープラーニングニューラルネットワークの逆アタックのためのハードウェアアクセラレータ
- Authors: Haoqiang Guo, Lu Peng, Jian Zhang, Fang Qi, Lide Duan
- Abstract要約: 強靭な物理的摂動を生成するために, 対向攻撃ネットワークアルゴリズムのクラスが提案されている。
本稿では,メムリスタクロスバーアレーをベースとした敵攻撃用ハードウェアアクセラレータを提案する。
- 参考スコア(独自算出の注目度): 7.20382137043754
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent studies identify that Deep learning Neural Networks (DNNs) are
vulnerable to subtle perturbations, which are not perceptible to human visual
system but can fool the DNN models and lead to wrong outputs. A class of
adversarial attack network algorithms has been proposed to generate robust
physical perturbations under different circumstances. These algorithms are the
first efforts to move forward secure deep learning by providing an avenue to
train future defense networks, however, the intrinsic complexity of them
prevents their broader usage.
In this paper, we propose the first hardware accelerator for adversarial
attacks based on memristor crossbar arrays. Our design significantly improves
the throughput of a visual adversarial perturbation system, which can further
improve the robustness and security of future deep learning systems. Based on
the algorithm uniqueness, we propose four implementations for the adversarial
attack accelerator ($A^3$) to improve the throughput, energy efficiency, and
computational efficiency.
- Abstract(参考訳): 近年の研究では、深層学習ニューラルネットワーク(dnn)は、人間の視覚システムでは知覚できないが、dnnモデルを騙し、間違ったアウトプットにつながる微妙な摂動に弱いことが示されている。
異なる状況下で堅牢な物理的摂動を生成するために,逆攻撃ネットワークアルゴリズムのクラスが提案されている。
これらのアルゴリズムは、将来の防衛ネットワークを訓練するための道を提供することによって、セキュアな深層学習を前進させる最初の試みである。
本稿では,memristor クロスバーアレイを用いた対向攻撃のためのハードウェアアクセラレータを提案する。
この設計により,視覚障害者摂動システムのスループットが大幅に向上し,将来の深層学習システムのロバスト性と安全性がさらに向上する。
アルゴリズムの一意性に基づき, スループット, エネルギー効率, 計算効率を向上させるために, 逆攻撃加速器 (a^3$) の4つの実装を提案する。
関連論文リスト
- Deep Learning Algorithms Used in Intrusion Detection Systems -- A Review [0.0]
本稿では,CNN,Recurrent Neural Networks(RNN),Deep Belief Networks(DBN),Deep Neural Networks(DNN),Long Short-Term Memory(LSTM),Autoencoders(AE),Multi-Layer Perceptrons(MLP),Self-Normalizing Networks(SNN),Hybrid Model(ネットワーク侵入検知システム)など,近年のディープラーニング技術の進歩について述べる。
論文 参考訳(メタデータ) (2024-02-26T20:57:35Z) - Graph Neural Networks for Decentralized Multi-Agent Perimeter Defense [111.9039128130633]
我々は,防御者の地域認識とコミュニケーショングラフから行動へのマッピングを学習する模倣学習フレームワークを開発した。
学習ネットワークの性能を実証するために、異なるチームサイズと構成のシナリオで周辺防衛ゲームを実行します。
論文 参考訳(メタデータ) (2023-01-23T19:35:59Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - An integrated Auto Encoder-Block Switching defense approach to prevent
adversarial attacks [0.0]
逆入力サンプルに対する最先端のニューラルネットワークの脆弱性は、劇的に増大している。
本稿では,自動エンコーダとブロックスイッチングアーキテクチャを組み合わせたディフェンスアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-11T10:58:24Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Evaluating Resilience of Encrypted Traffic Classification Against
Adversarial Evasion Attacks [4.243926243206826]
本稿では,異なる回避攻撃の有効性を検討することに集中し,機械学習アルゴリズムとディープラーニングアルゴリズムの弾力性について検討する。
実験結果の大部分において、ディープラーニングは、機械学習と比較して、敵のサンプルに対してより優れたレジリエンスを示す。
論文 参考訳(メタデータ) (2021-05-30T15:07:12Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Sparsity Turns Adversarial: Energy and Latency Attacks on Deep Neural
Networks [3.9193443389004887]
ディープニューラルネットワーク(DNN)のアドリアックが深刻な脆弱性を露呈
そこで本研究では,DNNの内部アクティベーション値のスパシティを低減するために,DNNの入力を逆向きに修正するスポーシティアタックを提案し,実証する。
我々は、敵対的スパシティ攻撃のホワイトボックス版とブラックボックス版の両方をローンチし、アクティベーション・スパシティーを最大1.82倍まで減少させることを示した。
論文 参考訳(メタデータ) (2020-06-14T21:02:55Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。