論文の概要: Neighbors From Hell: Voltage Attacks Against Deep Learning Accelerators
on Multi-Tenant FPGAs
- arxiv url: http://arxiv.org/abs/2012.07242v1
- Date: Mon, 14 Dec 2020 03:59:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 14:14:12.692327
- Title: Neighbors From Hell: Voltage Attacks Against Deep Learning Accelerators
on Multi-Tenant FPGAs
- Title(参考訳): 地獄の隣人:マルチテナントFPGA上のディープラーニング加速器に対する電圧攻撃
- Authors: Andrew Boutros, Mathew Hall, Nicolas Papernot, Vaughn Betz
- Abstract要約: FPGAベースのディープラーニングアクセラレータの電圧ベースの整合性攻撃に対するセキュリティを評価します。
効果的な電力節約技術であるアグレッシブクロックゲーティングは、現代のFPGAの潜在的なセキュリティ脅威になることを示しています。
DLアクセラレータをオーバークロックし、予測精度を損なうことなく1.18-1.31倍高い推論性能を実現します。
- 参考スコア(独自算出の注目度): 13.531406531429335
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Field-programmable gate arrays (FPGAs) are becoming widely used accelerators
for a myriad of datacenter applications due to their flexibility and energy
efficiency. Among these applications, FPGAs have shown promising results in
accelerating low-latency real-time deep learning (DL) inference, which is
becoming an indispensable component of many end-user applications. With the
emerging research direction towards virtualized cloud FPGAs that can be shared
by multiple users, the security aspect of FPGA-based DL accelerators requires
careful consideration. In this work, we evaluate the security of DL
accelerators against voltage-based integrity attacks in a multitenant FPGA
scenario. We first demonstrate the feasibility of such attacks on a
state-of-the-art Stratix 10 card using different attacker circuits that are
logically and physically isolated in a separate attacker role, and cannot be
flagged as malicious circuits by conventional bitstream checkers. We show that
aggressive clock gating, an effective power-saving technique, can also be a
potential security threat in modern FPGAs. Then, we carry out the attack on a
DL accelerator running ImageNet classification in the victim role to evaluate
the inherent resilience of DL models against timing faults induced by the
adversary. We find that even when using the strongest attacker circuit, the
prediction accuracy of the DL accelerator is not compromised when running at
its safe operating frequency. Furthermore, we can achieve 1.18-1.31x higher
inference performance by over-clocking the DL accelerator without affecting its
prediction accuracy.
- Abstract(参考訳): フィールドプログラマブルゲートアレイ(FPGA)は、その柔軟性とエネルギー効率のために、多くのデータセンターアプリケーションに広く利用されている。
これらのアプリケーションの中でFPGAは、低遅延リアルタイムディープラーニング(DL)推論を加速させる有望な結果を示している。
複数のユーザが共有できる仮想化クラウドFPGAへの研究の方向が近づきつつある中、FPGAベースのDLアクセラレータのセキュリティ面は慎重に検討する必要がある。
本研究では,マルチテナントFPGAシナリオにおける電圧ベース整合性攻撃に対するDLアクセラレータの安全性を評価する。
我々はまず、従来のビットストリームチェッカーでは悪意ある回路としてフラグ付けできない、論理的に物理的に分離された異なる攻撃回路を用いて、最先端のストラテクス10カードに対する攻撃の可能性を示す。
我々は、効率的な省電力技術であるアグレッシブクロックゲーティングが、現代のFPGAの潜在的なセキュリティ脅威であることを示した。
次に,画像ネット分類を行うDLアクセラレーターに対する攻撃を行い,相手が引き起こしたタイミング障害に対するDLモデル固有のレジリエンスを評価する。
我々は,最強の攻撃回路を用いても,dl加速器の安全な動作頻度で動作した場合の予測精度が損なわれないことを示す。
さらに,dl加速器をオーバークロックすることで,予測精度に影響を与えずに1.18-1.31倍高い推論性能が得られる。
関連論文リスト
- Hacking the Fabric: Targeting Partial Reconfiguration for Fault Injection in FPGA Fabrics [2.511032692122208]
本稿では,FPGA再構成の過程において,部分ビットストリームに持続的障害注入を生じさせる新しいフォールト攻撃手法を提案する。
この攻撃は電力浪費を利用しており、リコンフィグレーションマネージャを通じてFPGAにロードされるときにビットストリームに障害を注入する。
論文 参考訳(メタデータ) (2024-10-21T20:40:02Z) - The Impact of Run-Time Variability on Side-Channel Attacks Targeting FPGAs [5.795035584525081]
本研究は、非同期化対策の有効性を検討するために、微細な動的電圧と周波数スケーリングアクチュエータを提案する。
目標は、強制された実行時の可変性とFPGAをターゲットにした暗号実装のサイドチャネル攻撃に対する脆弱性との関係を強調することである。
論文 参考訳(メタデータ) (2024-09-03T13:22:38Z) - ElasticAI: Creating and Deploying Energy-Efficient Deep Learning Accelerator for Pervasive Computing [19.835810073852244]
組み込みデバイス上でのディープラーニング(DL)は、普及するコンピューティングのホットなトレンドである。
FPGAは組み込みデバイス向けにDLアクセラレータをデプロイするのに適しているが、FPGA上でエネルギー効率の良いDLアクセラレータを開発するのは容易ではない。
本稿では,組込みFPGA上でハードウェアアクセラレータとしてDLモデルを作成,デプロイすることを目的としたElasticAI-Workflowを提案する。
論文 参考訳(メタデータ) (2024-08-29T12:39:44Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - MaliGNNoma: GNN-Based Malicious Circuit Classifier for Secure Cloud FPGAs [1.6273816588362844]
MaliGNNomaは、悪意のあるFPGA構成を正確に識別する機械学習ベースのソリューションである。
必要なマルチ層セキュリティシステム内の初期セキュリティレイヤとして,クラウドサービスプロバイダが採用することも可能だ。
MaliGNNomaは、それぞれ98.24%と97.88%の分類精度と精度を達成し、最先端のアプローチを上回っている。
論文 参考訳(メタデータ) (2024-03-04T09:16:12Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Random and Adversarial Bit Error Robustness: Energy-Efficient and Secure
DNN Accelerators [105.60654479548356]
固定点量子化と重み切り、およびランダムビット誤り訓練(RandBET)の組み合わせにより、量子化DNN重みにおけるランダムビット誤りや逆ビット誤りに対するロバスト性を著しく向上することを示す。
これは低電圧運転のための高省エネと低精度量子化をもたらすが、DNN加速器の安全性も向上する。
論文 参考訳(メタデータ) (2021-04-16T19:11:14Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Deep-Dup: An Adversarial Weight Duplication Attack Framework to Crush
Deep Neural Network in Multi-Tenant FPGA [28.753009943116524]
本稿では, FPGA の被害者テナントにおける DNN モデルに対して, 敵対的テナントが敵的障害を注入できる新しい攻撃フレームワークである Deep-Dup を提案する。
提案したDeep-Dupは、2つの人気のあるディープラーニングアプリケーションのために開発されたマルチテナントFPGAプロトタイプで実験的に検証されている。
論文 参考訳(メタデータ) (2020-11-05T17:59:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。