論文の概要: DeepNcode: Encoding-Based Protection against Bit-Flip Attacks on Neural Networks
- arxiv url: http://arxiv.org/abs/2405.13891v2
- Date: Sun, 2 Jun 2024 08:23:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 14:19:22.136355
- Title: DeepNcode: Encoding-Based Protection against Bit-Flip Attacks on Neural Networks
- Title(参考訳): DeepNcode: ニューラルネットワーク上のビットフリップ攻撃に対する符号化ベースの保護
- Authors: Patrik Velčický, Jakub Breier, Mladen Kovačević, Xiaolu Hou,
- Abstract要約: ニューラルネットワークに対するビットフリップ攻撃に対する符号化に基づく保護手法について,DeepNcodeと題して紹介する。
この結果、保護マージンが最大で$4-$bitが$7.6times、$2.4timesが$8-$bitの量子化ネットワークで$12.4timesになることが示された。
- 参考スコア(独自算出の注目度): 4.734824660843964
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fault injection attacks are a potent threat against embedded implementations of neural network models. Several attack vectors have been proposed, such as misclassification, model extraction, and trojan/backdoor planting. Most of these attacks work by flipping bits in the memory where quantized model parameters are stored. In this paper, we introduce an encoding-based protection method against bit-flip attacks on neural networks, titled DeepNcode. We experimentally evaluate our proposal with several publicly available models and datasets, by using state-of-the-art bit-flip attacks: BFA, T-BFA, and TA-LBF. Our results show an increase in protection margin of up to $7.6\times$ for $4-$bit and $12.4\times$ for $8-$bit quantized networks. Memory overheads start at $50\%$ of the original network size, while the time overheads are negligible. Moreover, DeepNcode does not require retraining and does not change the original accuracy of the model.
- Abstract(参考訳): フォールトインジェクション攻撃は、ニューラルネットワークモデルの組み込み実装に対する強力な脅威である。
誤分類、モデル抽出、トロイジャン/バックドア植え付けなど、いくつかの攻撃ベクトルが提案されている。
これらの攻撃のほとんどは、量子化されたモデルパラメータが格納されているメモリ内のビットを反転させることで実行される。
本稿では,DeepNcodeという名のニューラルネットワークに対するビットフリップ攻撃に対する符号化に基づく保護手法を提案する。
我々は、BFA、T-BFA、TA-LBFといった最先端のビットフリップ攻撃を用いて、いくつかの公開モデルとデータセットを用いて提案提案を実験的に評価した。
この結果、保護マージンが最大で$4-$bitが$7.6\times、$2.4\timesが$8-$bitの量子化ネットワークで$12.4\timesになることが示された。
メモリオーバーヘッドは、オリジナルのネットワークサイズの50\%$から始まり、時間オーバーヘッドは無視される。
さらに、DeepNcodeは再トレーニングを必要とせず、モデルのオリジナルの精度も変更しない。
関連論文リスト
- One-bit Flip is All You Need: When Bit-flip Attack Meets Model Training [54.622474306336635]
メモリフォールトインジェクション技術を利用したビットフリップ攻撃(BFA)と呼ばれる新たな重み修正攻撃が提案された。
本稿では,高リスクモデルを構築するための訓練段階に敵が関与する,訓練支援ビットフリップ攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-12T09:34:43Z) - Hindering Adversarial Attacks with Implicit Neural Representations [25.422201099331637]
Lossy Implicit Network Activation Coding (LINAC) の防衛は、いくつかの共通の敵攻撃を妨害する。
鍵ベース防衛のためのパラメトリックバイパス近似(PBA)攻撃戦略を考案し,このカテゴリにおける既存手法の無効化に成功した。
論文 参考訳(メタデータ) (2022-10-22T13:10:24Z) - Few-shot Backdoor Attacks via Neural Tangent Kernels [31.85706783674533]
バックドア攻撃では、攻撃者が破損した例をトレーニングセットに注入する。
これらの攻撃の中心は、攻撃の成功率と、注入された破損したトレーニング例の数との間のトレードオフである。
ニューラルネットワークカーネルを用いて、攻撃されたモデルのトレーニングダイナミクスを近似し、強力な毒のサンプルを自動的に学習する。
論文 参考訳(メタデータ) (2022-10-12T05:30:00Z) - Radial Spike and Slab Bayesian Neural Networks for Sparse Data in
Ransomware Attacks [7.599718568619666]
近似した後続分布の新しい形式を含む新しいタイプのベイズニューラルネットワークを提案する。
ランサムウェア攻撃の実際のデータセット上でのモデルの性能を実証し、多数のベースラインに対して改善を示す。
さらに,MITRE ATT&CK戦術,技術,手順 (TTP) として低レベル事象を表現することを提案する。
論文 参考訳(メタデータ) (2022-05-29T20:18:14Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Red Alarm for Pre-trained Models: Universal Vulnerability to
Neuron-Level Backdoor Attacks [98.15243373574518]
事前訓練されたモデル(PTM)は、下流の様々なタスクで広く使われている。
本研究では,バックドアアタックによって微調整されたPTMを容易に制御できるPTMの普遍的脆弱性を実証する。
論文 参考訳(メタデータ) (2021-01-18T10:18:42Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z) - SNIFF: Reverse Engineering of Neural Networks with Fault Attacks [26.542434084399265]
障害攻撃を利用したニューラルネットワークのリバースエンジニアリングの可能性を探る。
SNIFFは符号ビットフリップフォールトを意味し、中間値の符号を変更することでリバースエンジニアリングを可能にする。
モデルパラメータの復元を確実に行うディープ層特徴抽出器ネットワーク上での最初の正確な抽出法を開発した。
論文 参考訳(メタデータ) (2020-02-23T05:39:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。