論文の概要: T-BFA: Targeted Bit-Flip Adversarial Weight Attack
- arxiv url: http://arxiv.org/abs/2007.12336v3
- Date: Fri, 8 Jan 2021 04:54:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 06:22:26.734481
- Title: T-BFA: Targeted Bit-Flip Adversarial Weight Attack
- Title(参考訳): T-BFA:bit-Flip対応重量攻撃を狙う
- Authors: Adnan Siraj Rakin, Zhezhi He, Jingtao Li, Fan Yao, Chaitali
Chakrabarti and Deliang Fan
- Abstract要約: Bit-Flipベースの対向重み攻撃(BFA)は、実行中のDNN関数をハイジャックするために、非常に少量の障害を重みパラメータに注入する。
本稿では,DNNに対するT-BFA(T-BFA)対向重み攻撃の最初の取り組みを提案する。
- 参考スコア(独自算出の注目度): 36.80180060697878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional Deep Neural Network (DNN) security is mostly related to the
well-known adversarial input example attack. Recently, another dimension of
adversarial attack, namely, attack on DNN weight parameters, has been shown to
be very powerful. As a representative one, the Bit-Flip-based adversarial
weight Attack (BFA) injects an extremely small amount of faults into weight
parameters to hijack the executing DNN function. Prior works of BFA focus on
un-targeted attack that can hack all inputs into a random output class by
flipping a very small number of weight bits stored in computer memory. This
paper proposes the first work of targeted BFA based (T-BFA) adversarial weight
attack on DNNs, which can intentionally mislead selected inputs to a target
output class. The objective is achieved by identifying the weight bits that are
highly associated with classification of a targeted output through a
class-dependent weight bit ranking algorithm. Our proposed T-BFA performance is
successfully demonstrated on multiple DNN architectures for image
classification tasks. For example, by merely flipping 27 out of 88 million
weight bits of ResNet-18, our T-BFA can misclassify all the images from 'Hen'
class into 'Goose' class (i.e., 100 % attack success rate) in ImageNet dataset,
while maintaining 59.35 % validation accuracy. Moreover, we successfully
demonstrate our T-BFA attack in a real computer prototype system running DNN
computation, with Ivy Bridge-based Intel i7 CPU and 8GB DDR3 memory.
- Abstract(参考訳): 従来のディープニューラルネットワーク(DNN)のセキュリティは、よく知られた逆入力の例攻撃に関連している。
近年、DNNの重みパラメータに対する攻撃という別の敵攻撃の次元が非常に強力であることが示されている。
代表的なものとして、Bit-Flipベースの対向重み攻撃(BFA)は、実行中のDNN関数をハイジャックするために、非常に少量の障害を重みパラメータに注入する。
BFAの以前の研究は、コンピュータメモリに格納された非常に少数の重みビットを反転させることで、すべての入力をランダムな出力クラスにハックできる未ターゲット攻撃に焦点を当てていた。
本稿では,ターゲット出力クラスに対して選択された入力を意図的に誤解させることができるdnnに対する標的bfa(t-bfa)対向重み攻撃の最初の作品を提案する。
対象出力の分類と密接な関係を持つ重みビットをクラス依存重みビットランキングアルゴリズムにより同定することで目的とする。
画像分類タスクにおいて,複数のDNNアーキテクチャ上でT-BFAの性能を実証した。
例えば、resnet-18の8800万ビットのうち27ビットをひっくり返すだけで、我々のt-bfaは'hen'クラスからの全ての画像をimagenetデータセットの'goose'クラス(すなわち100%攻撃成功率)に誤分類することができ、59.35パーセントの検証精度を維持している。
さらに、我々は、Ivy BridgeベースのIntel i7 CPUと8GBのDDR3メモリを用いて、DNN計算を実行する実コンピュータプロトタイプシステムにおけるT-BFA攻撃の実証に成功した。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - DeepNcode: Encoding-Based Protection against Bit-Flip Attacks on Neural Networks [4.734824660843964]
ニューラルネットワークに対するビットフリップ攻撃に対する符号化に基づく保護手法について,DeepNcodeと題して紹介する。
この結果、保護マージンが最大で$4-$bitが$7.6times、$2.4timesが$8-$bitの量子化ネットワークで$12.4timesになることが示された。
論文 参考訳(メタデータ) (2024-05-22T18:01:34Z) - Compiled Models, Built-In Exploits: Uncovering Pervasive Bit-Flip Attack Surfaces in DNN Executables [18.123649165203652]
ビットフリップ攻撃(BFA)はディープニューラルネットワーク(DNN)を操作する
PyTorchのようなディープラーニング(DL)フレームワーク上で動作する高レベルのDNNモデルでは、モデル重み付けのビットをフリップするために広範囲なBFAが使用され、有効であることが示されている。
論文 参考訳(メタデータ) (2023-09-12T13:42:20Z) - One-bit Flip is All You Need: When Bit-flip Attack Meets Model Training [54.622474306336635]
メモリフォールトインジェクション技術を利用したビットフリップ攻撃(BFA)と呼ばれる新たな重み修正攻撃が提案された。
本稿では,高リスクモデルを構築するための訓練段階に敵が関与する,訓練支援ビットフリップ攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-12T09:34:43Z) - Quantization Aware Attack: Enhancing Transferable Adversarial Attacks by Model Quantization [57.87950229651958]
量子ニューラルネットワーク(QNN)は、異常な一般化性のため、リソース制約のあるシナリオに注目が集まっている。
従来の研究では、ビット幅の異なるQNN間で転送性を実現することは困難であった。
マルチビット学習目的のQNN代替モデルを微調整するテキスト品質認識攻撃(QAA)を提案する。
論文 参考訳(メタデータ) (2023-05-10T03:46:53Z) - Hindering Adversarial Attacks with Implicit Neural Representations [25.422201099331637]
Lossy Implicit Network Activation Coding (LINAC) の防衛は、いくつかの共通の敵攻撃を妨害する。
鍵ベース防衛のためのパラメトリックバイパス近似(PBA)攻撃戦略を考案し,このカテゴリにおける既存手法の無効化に成功した。
論文 参考訳(メタデータ) (2022-10-22T13:10:24Z) - BDFA: A Blind Data Adversarial Bit-flip Attack on Deep Neural Networks [0.05249805590164901]
Blind Data Adversarial Bit-flip Attack (BDFA)は、トレーニングデータやテストデータにアクセスせずにBFAを有効にする新しいテクニックである。
BDFAはResNet50の精度を75.96%から13.94%に大幅に下げることができた。
論文 参考訳(メタデータ) (2021-12-07T03:53:38Z) - KATANA: Simple Post-Training Robustness Using Test Time Augmentations [49.28906786793494]
このような攻撃に対する先導的な防御は、DNNが敵の攻撃に対して堅牢であるように訓練される技術である敵の訓練である。
そこで本稿では,既存の事前学習型DNNを重みを変更せずに堅牢化する,シンプルで使いやすいKATANA手法を提案する。
我々の戦略は、自然画像の分類に最小限の妥協を伴い、様々な攻撃に対する最先端の敵対的堅牢性を達成する。
論文 参考訳(メタデータ) (2021-09-16T19:16:00Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Defensive Approximation: Securing CNNs using Approximate Computing [2.29450472676752]
我々の近似計算実装は、幅広い攻撃シナリオにまたがって堅牢性を実現することを示す。
分類精度は同じ水準を維持し,再訓練を必要とせず,資源利用量やエネルギー消費量を削減できる。
論文 参考訳(メタデータ) (2020-06-13T18:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。