論文の概要: DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips
- arxiv url: http://arxiv.org/abs/2003.13746v1
- Date: Mon, 30 Mar 2020 18:51:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 08:50:00.963937
- Title: DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips
- Title(参考訳): DeepHammer: ビットフリップのターゲットチェーンを通じて、ディープニューラルネットワークのインテリジェンスを損なう
- Authors: Fan Yao, Adnan Siraj Rakin, Deliang Fan
- Abstract要約: 量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
- 参考スコア(独自算出の注目度): 29.34622626909906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Security of machine learning is increasingly becoming a major concern due to
the ubiquitous deployment of deep learning in many security-sensitive domains.
Many prior studies have shown external attacks such as adversarial examples
that tamper with the integrity of DNNs using maliciously crafted inputs.
However, the security implication of internal threats (i.e., hardware
vulnerability) to DNN models has not yet been well understood. In this paper,
we demonstrate the first hardware-based attack on quantized deep neural
networks-DeepHammer-that deterministically induces bit flips in model weights
to compromise DNN inference by exploiting the rowhammer vulnerability.
DeepHammer performs aggressive bit search in the DNN model to identify the most
vulnerable weight bits that are flippable under system constraints. To trigger
deterministic bit flips across multiple pages within reasonable amount of time,
we develop novel system-level techniques that enable fast deployment of victim
pages, memory-efficient rowhammering and precise flipping of targeted bits.
DeepHammer can deliberately degrade the inference accuracy of the victim DNN
system to a level that is only as good as random guess, thus completely
depleting the intelligence of targeted DNN systems. We systematically
demonstrate our attacks on real systems against 12 DNN architectures with 4
different datasets and different application domains. Our evaluation shows that
DeepHammer is able to successfully tamper DNN inference behavior at run-time
within a few minutes. We further discuss several mitigation techniques from
both algorithm and system levels to protect DNNs against such attacks. Our work
highlights the need to incorporate security mechanisms in future deep learning
system to enhance the robustness of DNN against hardware-based deterministic
fault injections.
- Abstract(参考訳): 機械学習のセキュリティは、多くのセキュリティに敏感なドメインにおけるディープラーニングのユビキタスな展開によって、ますます大きな関心事になりつつある。
多くの先行研究は、悪意ある入力を用いてDNNの整合性を阻害する敵の例のような外部攻撃を示している。
しかし、DNNモデルに対する内部脅威(すなわちハードウェア脆弱性)のセキュリティへの影響は、まだよく分かっていない。
本稿では,モデル重みのビットフリップを決定的に誘導する,量子化されたディープニューラルネットワークに対するハードウェアベースの最初の攻撃を,ローハマー脆弱性を利用してDNN推論を損なうことを示す。
DeepHammerはDNNモデルでアグレッシブなビット検索を実行し、システムの制約の下で反転可能な最も脆弱なウェイトビットを特定する。
適切な時間内に複数ページにわたる決定論的ビットフリップをトリガーするために,被害者ページの高速展開,メモリ効率の向上,ターゲットビットの正確なフリップを可能にするシステムレベルの技術を開発した。
DeepHammerは、被害者のDNNシステムの推測精度を、ランダムな推測に匹敵するレベルまで意図的に低下させ、ターゲットとするDNNシステムの知性を完全に損なうことができる。
4つの異なるデータセットと異なるアプリケーションドメインを持つ12のDNNアーキテクチャに対する実際のシステムに対する攻撃を系統的に実証する。
評価の結果,DeepHammer は実行時に DNN の推論動作を数分で阻止できることがわかった。
さらに,このような攻撃からdnnを保護するため,アルゴリズムレベルとシステムレベルの両方から,いくつかの緩和手法について検討する。
我々の研究は、ハードウェアベースの決定論的障害注入に対するDNNの堅牢性を高めるために、将来のディープラーニングシステムにセキュリティメカニズムを組み込むことの必要性を強調している。
関連論文リスト
- DNNShield: Embedding Identifiers for Deep Neural Network Ownership Verification [46.47446944218544]
本稿では、ディープニューラルネットワーク(DNN)の保護のための新しいアプローチであるDNNShieldを紹介する。
DNNShieldは、特別な保護レイヤを使用して、モデルアーキテクチャにユニークな識別子を埋め込む。
3つのデータセットと4つのモデルアーキテクチャにわたる広範囲な評価を通じて、DNNShieldの有効性と効率を検証した。
論文 参考訳(メタデータ) (2024-03-11T10:27:36Z) - DNN-Defender: A Victim-Focused In-DRAM Defense Mechanism for Taming Adversarial Weight Attack on DNNs [10.201050807991175]
本稿では,DNN(Quantized Deep Neural Networks)に適したDRAMベースの犠牲者中心防御機構について紹介する。
DNN-Defenderは、ターゲットのRowHammer攻撃のパフォーマンスをランダムな攻撃レベルに低下させる高いレベルの保護を提供することができる。
提案されたディフェンスは、ソフトウェアトレーニングやハードウェアオーバーヘッドを発生させることなく、CIFAR-10とImageNetデータセットに精度の低下はない。
論文 参考訳(メタデータ) (2023-05-14T00:30:58Z) - Black-box Safety Analysis and Retraining of DNNs based on Feature
Extraction and Clustering [0.9590956574213348]
DNNエラーの根本原因を自動的に識別するブラックボックスアプローチであるSAFEを提案する。
これは、ImageNetで事前訓練された転送学習モデルを使用して、エラー誘発画像から特徴を抽出する。
次に、密度に基づくクラスタリングアルゴリズムを適用し、誤りのもっともらしい原因をモデル化した画像の任意の形状のクラスタを検出する。
論文 参考訳(メタデータ) (2022-01-13T17:02:57Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids [7.351477761427584]
偽データインジェクション攻撃(FDIA)は、電力システムの状態推定に重大なセキュリティ上の脅威をもたらす。
最近の研究では、機械学習(ML)技術、特にディープニューラルネットワーク(DNN)が提案されている。
論文 参考訳(メタデータ) (2021-02-17T22:26:34Z) - Deep Serial Number: Computational Watermarking for DNN Intellectual
Property Protection [53.40245698216239]
DSN(Deep Serial Number)はディープニューラルネットワーク(DNN)に特化した透かしアルゴリズムである。
従来のソフトウェアIPの保護においてシリアル番号に着想を得て,DNNに埋め込まれたシリアル番号の最初の実装を提案する。
論文 参考訳(メタデータ) (2020-11-17T21:42:40Z) - DeepDyve: Dynamic Verification for Deep Neural Networks [16.20238078882485]
DeepDyveでは、トレーニング済みのニューラルネットワークを使用している。
我々は,DeepDyveにおけるリスク/オーバヘッドトレードオフの最適化を実現するために,効率的かつ効率的なアーキテクチャとタスク探索手法を開発した。
論文 参考訳(メタデータ) (2020-09-21T07:58:18Z) - Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware [48.7072217216104]
ディープ・ニューラル・ネットワーク(DNN)は構造的マルウェア(すなわち、重みと活性化経路)を持つ
バックドアの検出は一般的に困難であり、既存の検出手法は計算に高価であり、膨大なリソースを必要とする(トレーニングデータへのアクセスなど)。
そこで本研究では,DNNの堅牢性,指紋の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
実験の結果,既存の手法(秒対秒)よりも高い信頼度でバックドアを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2020-07-31T23:52:58Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - NeuroAttack: Undermining Spiking Neural Networks Security through
Externally Triggered Bit-Flips [11.872768663147776]
Spiking Neural Networks(SNN)は、機械学習システムにおける正確性、リソース利用、エネルギー効率の課題に対する、有望な解決策として登場した。
これらのシステムは主流になってきていますが、本質的にセキュリティと信頼性の問題があります。
我々は低レベルの信頼性問題を利用してSNNの整合性を脅かすクロスレイヤー攻撃であるNeuroAttackを提案する。
論文 参考訳(メタデータ) (2020-05-16T16:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。