論文の概要: Deep-Dup: An Adversarial Weight Duplication Attack Framework to Crush
Deep Neural Network in Multi-Tenant FPGA
- arxiv url: http://arxiv.org/abs/2011.03006v2
- Date: Fri, 8 Oct 2021 19:18:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 12:41:54.176818
- Title: Deep-Dup: An Adversarial Weight Duplication Attack Framework to Crush
Deep Neural Network in Multi-Tenant FPGA
- Title(参考訳): Deep-Dup:マルチテナントFPGAにおけるディープニューラルネットワークの逆重畳み込み攻撃フレームワーク
- Authors: Adnan Siraj Rakin, Yukui Luo, Xiaolin Xu and Deliang Fan
- Abstract要約: 本稿では, FPGA の被害者テナントにおける DNN モデルに対して, 敵対的テナントが敵的障害を注入できる新しい攻撃フレームワークである Deep-Dup を提案する。
提案したDeep-Dupは、2つの人気のあるディープラーニングアプリケーションのために開発されたマルチテナントFPGAプロトタイプで実験的に検証されている。
- 参考スコア(独自算出の注目度): 28.753009943116524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The wide deployment of Deep Neural Networks (DNN) in high-performance cloud
computing platforms brought to light multi-tenant cloud field-programmable gate
arrays (FPGA) as a popular choice of accelerator to boost performance due to
its hardware reprogramming flexibility. Such a multi-tenant FPGA setup for DNN
acceleration potentially exposes DNN interference tasks under severe threat
from malicious users. This work, to the best of our knowledge, is the first to
explore DNN model vulnerabilities in multi-tenant FPGAs. We propose a novel
adversarial attack framework: Deep-Dup, in which the adversarial tenant can
inject adversarial faults to the DNN model in the victim tenant of FPGA.
Specifically, she can aggressively overload the shared power distribution
system of FPGA with malicious power-plundering circuits, achieving adversarial
weight duplication (AWD) hardware attack that duplicates certain DNN weight
packages during data transmission between off-chip memory and on-chip buffer,
to hijack the DNN function of the victim tenant. Further, to identify the most
vulnerable DNN weight packages for a given malicious objective, we propose a
generic vulnerable weight package searching algorithm, called Progressive
Differential Evolution Search (P-DES), which is, for the first time, adaptive
to both deep learning white-box and black-box attack models. The proposed
Deep-Dup is experimentally validated in a developed multi-tenant FPGA
prototype, for two popular deep learning applications, i.e., Object Detection
and Image Classification. Successful attacks are demonstrated in six popular
DNN architectures (e.g., YOLOv2, ResNet-50, MobileNet, etc.)
- Abstract(参考訳): 高性能クラウドコンピューティングプラットフォームにおけるDeep Neural Networks (DNN) の広範な展開は、ハードウェアの再プログラミングの柔軟性によってパフォーマンスが向上するアクセラレータの選択肢として、軽量なマルチテナントクラウドフィールドプログラマブルゲートアレイ (FPGA) を生み出した。
このようなDNNアクセラレーションのためのマルチテナントFPGAセットアップは、悪意のあるユーザからの深刻な脅威の下でDNNの干渉タスクを公開する可能性がある。
この研究は、私たちの知る限り、マルチテナントFPGAにおけるDNNモデルの脆弱性を初めて探求するものです。
本稿では, FPGA の被害者テナントにおける DNN モデルに対して, 敵対的テナントが敵的障害を注入できる新しい攻撃フレームワークである Deep-Dup を提案する。
具体的には、オフチップメモリとオンチップバッファ間のデータ転送中に特定のDNN重みパッケージを複製する対向重み重複(AWD)ハードウェア攻撃を実行し、被害者テナントのDNN機能をハイジャックするFPGAの共有電力分配システムを積極的にオーバーロードすることができる。
さらに,悪質な対象に対して最も脆弱なDNN重み付きパッケージを識別するために,プログレッシブ微分進化探索 (Progressive Differential Evolution Search, P-DES) と呼ばれる汎用的脆弱な重み付きパッケージ探索アルゴリズムを提案する。
提案したDeep-Dupは、オブジェクト検出と画像分類という2つの一般的なディープラーニングアプリケーションのために開発されたマルチテナントFPGAプロトタイプで実験的に検証されている。
成功した攻撃は6つの人気のあるdnnアーキテクチャ(例えば、yolov2、resnet-50、mobilenetなど)で実証される。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Improving Robustness Against Adversarial Attacks with Deeply Quantized
Neural Networks [0.5849513679510833]
ディープニューラルネットワーク(DNN)の欠点は、入力にわずかな摂動を加えることで騙されるため、敵の攻撃に対する脆弱性である。
本稿では,対戦型ブラックボックス攻撃に対して堅牢な小型DNNモデルを考案し,自動量子化学習フレームワークを用いて訓練した結果を報告する。
論文 参考訳(メタデータ) (2023-04-25T13:56:35Z) - General Adversarial Defense Against Black-box Attacks via Pixel Level
and Feature Level Distribution Alignments [75.58342268895564]
我々は,DGN(Deep Generative Networks)と新たなトレーニング機構を併用して,分散ギャップを解消する。
トレーニングされたDGNは、画素値の変換により、敵サンプルとターゲットDNNのクリーンな分布を整列する。
我々の戦略はブラックボックス攻撃に対するその独特な効果と汎用性を実証している。
論文 参考訳(メタデータ) (2022-12-11T01:51:31Z) - RL-DistPrivacy: Privacy-Aware Distributed Deep Inference for low latency
IoT systems [41.1371349978643]
本稿では,流通戦略の再考を通じて協調的深層推論の安全性を目標とするアプローチを提案する。
我々は、この手法を最適化として定式化し、コ推論のレイテンシとプライバシーレベルのデータのトレードオフを確立する。
論文 参考訳(メタデータ) (2022-08-27T14:50:00Z) - FitAct: Error Resilient Deep Neural Networks via Fine-Grained
Post-Trainable Activation Functions [0.05249805590164901]
ディープニューラルネットワーク(DNN)は、パーソナルヘルスケアデバイスや自動運転車などの安全クリティカルなシステムにますます導入されている。
本稿では,DNNの微粒化後のアクティベーション機能を実装することで,DNNのエラーレジリエンスを高めるための低コストなアプローチであるFitActを提案する。
論文 参考訳(メタデータ) (2021-12-27T07:07:50Z) - Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids [7.351477761427584]
偽データインジェクション攻撃(FDIA)は、電力システムの状態推定に重大なセキュリティ上の脅威をもたらす。
最近の研究では、機械学習(ML)技術、特にディープニューラルネットワーク(DNN)が提案されている。
論文 参考訳(メタデータ) (2021-02-17T22:26:34Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Deep Serial Number: Computational Watermarking for DNN Intellectual
Property Protection [53.40245698216239]
DSN(Deep Serial Number)はディープニューラルネットワーク(DNN)に特化した透かしアルゴリズムである。
従来のソフトウェアIPの保護においてシリアル番号に着想を得て,DNNに埋め込まれたシリアル番号の最初の実装を提案する。
論文 参考訳(メタデータ) (2020-11-17T21:42:40Z) - ShiftAddNet: A Hardware-Inspired Deep Network [87.18216601210763]
ShiftAddNetはエネルギー効率のよい乗算レスディープニューラルネットワークである。
エネルギー効率のよい推論とトレーニングの両方につながるが、表現能力は損なわれない。
ShiftAddNetは、DNNのトレーニングと推論において、80%以上のハードウェア量子化されたエネルギーコストを積極的に削減し、同等またはより良い精度を提供する。
論文 参考訳(メタデータ) (2020-10-24T05:09:14Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。