論文の概要: Unveiling Signle-Bit-Flip Attacks on DNN Executables
- arxiv url: http://arxiv.org/abs/2309.06223v1
- Date: Tue, 12 Sep 2023 13:42:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 12:51:36.138178
- Title: Unveiling Signle-Bit-Flip Attacks on DNN Executables
- Title(参考訳): DNN実行デバイス上でのシグナブルビットフリップ攻撃の解除
- Authors: Yanzuo Chen (1), Zhibo Liu (1), Yuanyuan Yuan (1), Sihang Hu (2),
Tianxiang Li (2), Shuai Wang (1) ((1) The Hong Kong University of Science and
Technology, (2) Huawei Technologies)
- Abstract要約: Bit-flip攻撃は、DRAM Rowhammerを使ったディープニューラルネットワーク(DNN)を操作することができる。
既存の攻撃は主にPyTorchやモデルウェイトファイルのフリップビットのような高レベルのDNNフレームワーク上で起動される。
DLコンパイラは、低レベルのハードウェアプリミティブを完全に活用するために、ディープラーニング(DL)コンパイラによって、しばしば低レベルの実行ファイルにコンパイルされる。
- 参考スコア(独自算出の注目度): 0.6638820451554986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent research has shown that bit-flip attacks (BFAs) can manipulate deep
neural networks (DNNs) via DRAM Rowhammer exploitations. Existing attacks are
primarily launched over high-level DNN frameworks like PyTorch and flip bits in
model weight files. Nevertheless, DNNs are frequently compiled into low-level
executables by deep learning (DL) compilers to fully leverage low-level
hardware primitives. The compiled code is usually high-speed and manifests
dramatically distinct execution paradigms from high-level DNN frameworks.
In this paper, we launch the first systematic study on the attack surface of
BFA specifically for DNN executables compiled by DL compilers. We design an
automated search tool to identify vulnerable bits in DNN executables and
identify practical attack vectors that exploit the model structure in DNN
executables with BFAs (whereas prior works make likely strong assumptions to
attack model weights). DNN executables appear more "opaque" than models in
high-level DNN frameworks. Nevertheless, we find that DNN executables contain
extensive, severe (e.g., single-bit flip), and transferrable attack surfaces
that are not present in high-level DNN models and can be exploited to deplete
full model intelligence and control output labels. Our finding calls for
incorporating security mechanisms in future DNN compilation toolchains.
- Abstract(参考訳): 近年の研究では、ビットフリップ攻撃(BFA)がDRAM Rowhammerによるディープニューラルネットワーク(DNN)を操作可能であることが示されている。
既存の攻撃は主にPyTorchやモデルウェイトファイルのフリップビットのような高レベルのDNNフレームワーク上で起動される。
それでも、DNNは低レベルのハードウェアプリミティブを完全に活用するために、ディープラーニング(DL)コンパイラによってしばしば低レベルの実行ファイルにコンパイルされる。
コンパイルされたコードは、通常高速で、ハイレベルなDNNフレームワークと劇的に異なる実行パラダイムを示す。
本稿では,DLコンパイラによってコンパイルされたDNN実行ファイルを対象とした,BFAの攻撃面に関する最初の体系的研究を行う。
我々は,DNN実行ファイルの脆弱なビットを識別する自動検索ツールを設計し,BFAを用いたDNN実行ファイルのモデル構造を利用する実用的な攻撃ベクトルを同定する。
DNN実行ファイルは、高レベルのDNNフレームワークのモデルよりも"不透明"に見える。
それでも、DNN実行可能ファイルには、高レベルなDNNモデルには存在せず、完全なモデルインテリジェンスと制御出力ラベルを損なうことができる、広範囲で厳しい(例えばシングルビットフリップ)攻撃面が含まれていることが分かる。
今後のDNNコンパイルツールチェーンにセキュリティメカニズムを組み込むことが求められます。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - One-bit Flip is All You Need: When Bit-flip Attack Meets Model Training [54.622474306336635]
メモリフォールトインジェクション技術を利用したビットフリップ攻撃(BFA)と呼ばれる新たな重み修正攻撃が提案された。
本稿では,高リスクモデルを構築するための訓練段階に敵が関与する,訓練支援ビットフリップ攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-12T09:34:43Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Quantization Aware Attack: Enhancing Transferable Adversarial Attacks by Model Quantization [57.87950229651958]
量子ニューラルネットワーク(QNN)は、異常な一般化性のため、リソース制約のあるシナリオに注目が集まっている。
従来の研究では、ビット幅の異なるQNN間で転送性を実現することは困難であった。
マルチビット学習目的のQNN代替モデルを微調整するテキスト品質認識攻撃(QAA)を提案する。
論文 参考訳(メタデータ) (2023-05-10T03:46:53Z) - EZClone: Improving DNN Model Extraction Attack via Shape Distillation
from GPU Execution Profiles [0.1529342790344802]
Deep Neural Networks (DNN) は、予測や分類問題のパフォーマンスのため、ユビキタスになった。
利用が広がるにつれ、さまざまな脅威に直面している。
DNNを盗み、知的財産権、データプライバシ、セキュリティを脅かすモデル抽出攻撃。
様々な脅威モデルに対応する2つの手法を提案する。
論文 参考訳(メタデータ) (2023-04-06T21:40:09Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - DeepSteal: Advanced Model Extractions Leveraging Efficient Weight
Stealing in Memories [26.067920958354]
Deep Neural Networks(DNN)のプライバシに対する大きな脅威の1つは、モデル抽出攻撃である。
最近の研究によると、ハードウェアベースのサイドチャネル攻撃はDNNモデル(例えばモデルアーキテクチャ)の内部知識を明らかにすることができる。
本稿では,メモリサイドチャネル攻撃の助けを借りてDNN重みを効果的に盗む,高度なモデル抽出攻撃フレームワークであるDeepStealを提案する。
論文 参考訳(メタデータ) (2021-11-08T16:55:45Z) - ZeBRA: Precisely Destroying Neural Networks with Zero-Data Based
Repeated Bit Flip Attack [10.31732879936362]
我々は、ディープニューラルネットワーク(DNN)を正確に破壊するゼロデータベースの繰り返しビットフリップアタック(ZeBRA)を提案する。
我々のアプローチは、DNNの安全のために敵の重量攻撃をより致命的なものにしている。
論文 参考訳(メタデータ) (2021-11-01T16:44:20Z) - HufuNet: Embedding the Left Piece as Watermark and Keeping the Right
Piece for Ownership Verification in Deep Neural Networks [16.388046449021466]
深部ニューラルネットワーク(DNN)を透かしする新しいソリューションを提案する。
HufuNetは、モデル微調整/pruning、カーネルのカットオフ/補完、機能相当の攻撃、不正所有クレームに対して非常に堅牢です。
論文 参考訳(メタデータ) (2021-03-25T06:55:22Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。