論文の概要: ZeBRA: Precisely Destroying Neural Networks with Zero-Data Based
Repeated Bit Flip Attack
- arxiv url: http://arxiv.org/abs/2111.01080v1
- Date: Mon, 1 Nov 2021 16:44:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 18:19:11.572034
- Title: ZeBRA: Precisely Destroying Neural Networks with Zero-Data Based
Repeated Bit Flip Attack
- Title(参考訳): ZeBRA:ゼロデータに基づく繰り返しビットフリップ攻撃によるニューラルネットワークの高精度破壊
- Authors: Dahoon Park, Kon-Woo Kwon, Sunghoon Im, Jaeha Kung
- Abstract要約: 我々は、ディープニューラルネットワーク(DNN)を正確に破壊するゼロデータベースの繰り返しビットフリップアタック(ZeBRA)を提案する。
我々のアプローチは、DNNの安全のために敵の重量攻撃をより致命的なものにしている。
- 参考スコア(独自算出の注目度): 10.31732879936362
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present Zero-data Based Repeated bit flip Attack (ZeBRA)
that precisely destroys deep neural networks (DNNs) by synthesizing its own
attack datasets. Many prior works on adversarial weight attack require not only
the weight parameters, but also the training or test dataset in searching
vulnerable bits to be attacked. We propose to synthesize the attack dataset,
named distilled target data, by utilizing the statistics of batch normalization
layers in the victim DNN model. Equipped with the distilled target data, our
ZeBRA algorithm can search vulnerable bits in the model without accessing
training or test dataset. Thus, our approach makes the adversarial weight
attack more fatal to the security of DNNs. Our experimental results show that
2.0x (CIFAR-10) and 1.6x (ImageNet) less number of bit flips are required on
average to destroy DNNs compared to the previous attack method. Our code is
available at https://github. com/pdh930105/ZeBRA.
- Abstract(参考訳): 本稿では,自己攻撃データセットを合成することにより,ディープニューラルネットワーク(dnn)を高精度に破壊するゼロデータ型反復ビットフリップ攻撃(zebra)を提案する。
対向重み攻撃に関する多くの先行研究は、重みパラメータだけでなく、攻撃対象の脆弱なビットを探索する際のトレーニングやテストデータセットも必要である。
本研究では,被害者のdnnモデルにおけるバッチ正規化層の統計を利用して,蒸留対象データと呼ばれる攻撃データセットを合成する。
蒸留したターゲットデータを備えたzebraアルゴリズムは、トレーニングやテストデータセットにアクセスせずに、モデルの脆弱なビットを検索できる。
そこで本手法は,DNNの安全のために,敵の重み付け攻撃をより致命的なものにする。
実験の結果,従来の攻撃法と比較して,DNNの破壊に要するビットフリップ数は平均で2.0x (CIFAR-10) と1.6x (ImageNet) が少ないことがわかった。
コードはhttps://github.com/で入手できる。
pdh930105/ZeBRA。
関連論文リスト
- Federated Learning Under Attack: Exposing Vulnerabilities through Data
Poisoning Attacks in Computer Networks [17.857547954232754]
Federated Learning(FL)は、複数の分散デバイスやエッジサーバが生データを交換することなく、共同で共有モデルをトレーニングできる機械学習アプローチである。
クライアントとサーバ間のモデル更新のトレーニングと共有の間、データとモデルは異なるデータポゾン攻撃の影響を受けやすい。
我々は,ラベルフリップ (LF) と特徴中毒 (FP) の2種類のデータ中毒攻撃を検討した。
論文 参考訳(メタデータ) (2024-03-05T14:03:15Z) - One-bit Flip is All You Need: When Bit-flip Attack Meets Model Training [54.622474306336635]
メモリフォールトインジェクション技術を利用したビットフリップ攻撃(BFA)と呼ばれる新たな重み修正攻撃が提案された。
本稿では,高リスクモデルを構築するための訓練段階に敵が関与する,訓練支援ビットフリップ攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-12T09:34:43Z) - Poisoning Web-Scale Training Datasets is Practical [73.34964403079775]
モデルの性能に悪意のある事例を意図的に導入する2つの新しいデータセット中毒攻撃を導入する。
最初の攻撃、スプリットビュー中毒は、インターネットコンテンツの不変性を利用して、データセットアノテータの初期ビューが、その後のクライアントがダウンロードしたビューとは異なることを保証します。
第2の攻撃、フロントラン中毒は、クラウドソースされたコンテンツを定期的にスナップショットするWebスケールデータセットをターゲットにしている。
論文 参考訳(メタデータ) (2023-02-20T18:30:54Z) - COLLIDER: A Robust Training Framework for Backdoor Data [11.510009152620666]
ディープニューラルネットワーク(DNN)分類器は、バックドア攻撃に対して脆弱である。
敵は、トリガーをインストールすることで、そのような攻撃でトレーニングデータのいくつかを毒する。
最近、悪意のあるバックドアDNNを検出するための様々なアプローチが提案されている。
論文 参考訳(メタデータ) (2022-10-13T03:48:46Z) - Few-shot Backdoor Attacks via Neural Tangent Kernels [31.85706783674533]
バックドア攻撃では、攻撃者が破損した例をトレーニングセットに注入する。
これらの攻撃の中心は、攻撃の成功率と、注入された破損したトレーニング例の数との間のトレードオフである。
ニューラルネットワークカーネルを用いて、攻撃されたモデルのトレーニングダイナミクスを近似し、強力な毒のサンプルを自動的に学習する。
論文 参考訳(メタデータ) (2022-10-12T05:30:00Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - KATANA: Simple Post-Training Robustness Using Test Time Augmentations [49.28906786793494]
このような攻撃に対する先導的な防御は、DNNが敵の攻撃に対して堅牢であるように訓練される技術である敵の訓練である。
そこで本稿では,既存の事前学習型DNNを重みを変更せずに堅牢化する,シンプルで使いやすいKATANA手法を提案する。
我々の戦略は、自然画像の分類に最小限の妥協を伴い、様々な攻撃に対する最先端の敵対的堅牢性を達成する。
論文 参考訳(メタデータ) (2021-09-16T19:16:00Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - Minimum-Norm Adversarial Examples on KNN and KNN-Based Models [7.4297019016687535]
我々は、kNNとkNNベースの防御に対する勾配に基づく攻撃を提案する。
私たちは、テストしたすべてのモデルにおいて、攻撃が彼らのメソッドより優れていることを実証します。
この攻撃が、kNNとその変異体の堅牢性を評価するための新しいベースラインとして使用できることを願っている。
論文 参考訳(メタデータ) (2020-03-14T05:36:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。