論文の概要: Unveiling Signle-Bit-Flip Attacks on DNN Executables
- arxiv url: http://arxiv.org/abs/2309.06223v1
- Date: Tue, 12 Sep 2023 13:42:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 12:51:36.138178
- Title: Unveiling Signle-Bit-Flip Attacks on DNN Executables
- Title(参考訳): DNN実行デバイス上でのシグナブルビットフリップ攻撃の解除
- Authors: Yanzuo Chen (1), Zhibo Liu (1), Yuanyuan Yuan (1), Sihang Hu (2),
Tianxiang Li (2), Shuai Wang (1) ((1) The Hong Kong University of Science and
Technology, (2) Huawei Technologies)
- Abstract要約: Bit-flip攻撃は、DRAM Rowhammerを使ったディープニューラルネットワーク(DNN)を操作することができる。
既存の攻撃は主にPyTorchやモデルウェイトファイルのフリップビットのような高レベルのDNNフレームワーク上で起動される。
DLコンパイラは、低レベルのハードウェアプリミティブを完全に活用するために、ディープラーニング(DL)コンパイラによって、しばしば低レベルの実行ファイルにコンパイルされる。
- 参考スコア(独自算出の注目度): 0.6638820451554986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent research has shown that bit-flip attacks (BFAs) can manipulate deep
neural networks (DNNs) via DRAM Rowhammer exploitations. Existing attacks are
primarily launched over high-level DNN frameworks like PyTorch and flip bits in
model weight files. Nevertheless, DNNs are frequently compiled into low-level
executables by deep learning (DL) compilers to fully leverage low-level
hardware primitives. The compiled code is usually high-speed and manifests
dramatically distinct execution paradigms from high-level DNN frameworks.
In this paper, we launch the first systematic study on the attack surface of
BFA specifically for DNN executables compiled by DL compilers. We design an
automated search tool to identify vulnerable bits in DNN executables and
identify practical attack vectors that exploit the model structure in DNN
executables with BFAs (whereas prior works make likely strong assumptions to
attack model weights). DNN executables appear more "opaque" than models in
high-level DNN frameworks. Nevertheless, we find that DNN executables contain
extensive, severe (e.g., single-bit flip), and transferrable attack surfaces
that are not present in high-level DNN models and can be exploited to deplete
full model intelligence and control output labels. Our finding calls for
incorporating security mechanisms in future DNN compilation toolchains.
- Abstract(参考訳): 近年の研究では、ビットフリップ攻撃(BFA)がDRAM Rowhammerによるディープニューラルネットワーク(DNN)を操作可能であることが示されている。
既存の攻撃は主にPyTorchやモデルウェイトファイルのフリップビットのような高レベルのDNNフレームワーク上で起動される。
それでも、DNNは低レベルのハードウェアプリミティブを完全に活用するために、ディープラーニング(DL)コンパイラによってしばしば低レベルの実行ファイルにコンパイルされる。
コンパイルされたコードは、通常高速で、ハイレベルなDNNフレームワークと劇的に異なる実行パラダイムを示す。
本稿では,DLコンパイラによってコンパイルされたDNN実行ファイルを対象とした,BFAの攻撃面に関する最初の体系的研究を行う。
我々は,DNN実行ファイルの脆弱なビットを識別する自動検索ツールを設計し,BFAを用いたDNN実行ファイルのモデル構造を利用する実用的な攻撃ベクトルを同定する。
DNN実行ファイルは、高レベルのDNNフレームワークのモデルよりも"不透明"に見える。
それでも、DNN実行可能ファイルには、高レベルなDNNモデルには存在せず、完全なモデルインテリジェンスと制御出力ラベルを損なうことができる、広範囲で厳しい(例えばシングルビットフリップ)攻撃面が含まれていることが分かる。
今後のDNNコンパイルツールチェーンにセキュリティメカニズムを組み込むことが求められます。
関連論文リスト
- MatchNAS: Optimizing Edge AI in Sparse-Label Data Contexts via
Automating Deep Neural Network Porting for Mobile Deployment [54.77943671991863]
MatchNASはDeep Neural Networksをモバイルデバイスに移植するための新しいスキームである。
ラベル付きデータと非ラベル付きデータの両方を用いて、大規模なネットワークファミリを最適化する。
そして、さまざまなハードウェアプラットフォーム用に調整されたネットワークを自動的に検索する。
論文 参考訳(メタデータ) (2024-02-21T04:43:12Z) - Decompiling x86 Deep Neural Network Executables [20.91585339813852]
BTD(Bin to DNN)は、ディープニューラルネットワーク(DNN)実行用のデコンパイラである。
BTDは, DNN実行環境に対して, 逆例生成と知識盗難の2つの代表的な攻撃を促進できることを示す。
論文 参考訳(メタデータ) (2022-10-03T16:48:18Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - HASHTAG: Hash Signatures for Online Detection of Fault-Injection Attacks
on Deep Neural Networks [14.192217297770378]
我々は,Deep Neural Networks (DNN) における障害注入攻撃の高精度検出を可能にする最初のフレームワークである HASHTAG を提案する。
近年のフォールトインジェクション攻撃では,ビットフリップによるDNNの精度低下が報告されている。
HASHTAGには,組込みプラットフォーム上での低オーバーヘッドかつリアルタイムな障害検出を実現する,軽量な方法論が組み込まれている。
論文 参考訳(メタデータ) (2021-11-02T22:47:24Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - HufuNet: Embedding the Left Piece as Watermark and Keeping the Right
Piece for Ownership Verification in Deep Neural Networks [16.388046449021466]
深部ニューラルネットワーク(DNN)を透かしする新しいソリューションを提案する。
HufuNetは、モデル微調整/pruning、カーネルのカットオフ/補完、機能相当の攻撃、不正所有クレームに対して非常に堅牢です。
論文 参考訳(メタデータ) (2021-03-25T06:55:22Z) - Deep Serial Number: Computational Watermarking for DNN Intellectual
Property Protection [53.40245698216239]
DSN(Deep Serial Number)はディープニューラルネットワーク(DNN)に特化した透かしアルゴリズムである。
従来のソフトウェアIPの保護においてシリアル番号に着想を得て,DNNに埋め込まれたシリアル番号の最初の実装を提案する。
論文 参考訳(メタデータ) (2020-11-17T21:42:40Z) - CodNN -- Robust Neural Networks From Coded Classification [27.38642191854458]
ディープニューラルネットワーク(Deep Neural Networks、DNN)は、現在進行中の情報革命における革命的な力である。
DNNは、敵対的であろうとランダムであろうと、ノイズに非常に敏感である。
これは、DNNのハードウェア実装と、自律運転のような重要なアプリケーションへの展開において、根本的な課題となる。
提案手法により,DNNのデータ層あるいは内部層は誤り訂正符号で符号化され,ノイズ下での計算が成功することが保証される。
論文 参考訳(メタデータ) (2020-04-22T17:07:15Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z) - Skip Connections Matter: On the Transferability of Adversarial Examples
Generated with ResNets [83.12737997548645]
スキップ接続は、現在最先端のディープニューラルネットワーク(DNN)の重要な構成要素である
スキップ接続を使用することで、高度に転送可能な逆例を簡単に生成できる。
我々は、ResNets、DenseNets、Inceptions、Inception-ResNet、Squeeze-and-Excitation Network (SENet)を含む最先端DNNに対する包括的な転送攻撃を行う。
論文 参考訳(メタデータ) (2020-02-14T12:09:21Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。