論文の概要: BDFA: A Blind Data Adversarial Bit-flip Attack on Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2112.03477v1
- Date: Tue, 7 Dec 2021 03:53:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 01:30:19.910539
- Title: BDFA: A Blind Data Adversarial Bit-flip Attack on Deep Neural Networks
- Title(参考訳): BDFA:ディープニューラルネットワークにおけるブラインドデータ逆ビットフリップ攻撃
- Authors: Behnam Ghavami, Mani Sadati, Mohammad Shahidzadeh, Zhenman Fang,
Lesley Shannon
- Abstract要約: Blind Data Adversarial Bit-flip Attack (BDFA)は、トレーニングデータやテストデータにアクセスせずにBFAを有効にする新しいテクニックである。
BDFAはResNet50の精度を75.96%から13.94%に大幅に下げることができた。
- 参考スコア(独自算出の注目度): 0.05249805590164901
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial bit-flip attack (BFA) on Neural Network weights can result in
catastrophic accuracy degradation by flipping a very small number of bits. A
major drawback of prior bit flip attack techniques is their reliance on test
data. This is frequently not possible for applications that contain sensitive
or proprietary data. In this paper, we propose Blind Data Adversarial Bit-flip
Attack (BDFA), a novel technique to enable BFA without any access to the
training or testing data. This is achieved by optimizing for a synthetic
dataset, which is engineered to match the statistics of batch normalization
across different layers of the network and the targeted label. Experimental
results show that BDFA could decrease the accuracy of ResNet50 significantly
from 75.96\% to 13.94\% with only 4 bits flips.
- Abstract(参考訳): ニューラルネットワーク重みに対する逆ビットフリップ攻撃(BFA)は、非常に少数のビットを反転させることで壊滅的な精度低下をもたらす。
以前のビットフリップ攻撃手法の大きな欠点は、テストデータに依存することである。
これは、機密データやプロプライエタリデータを含むアプリケーションではしばしば不可能である。
本稿では,bfaをトレーニングやテストデータにアクセスせずに有効化する新しい手法であるbdfaを提案する。
これは、ネットワークの異なる層とターゲットラベルにまたがるバッチ正規化の統計にマッチするように設計された合成データセットを最適化することで実現される。
実験の結果、BDFAはResNet50の精度を75.96\%から13.94\%に大幅に下げることができた。
関連論文リスト
- DeepNcode: Encoding-Based Protection against Bit-Flip Attacks on Neural Networks [4.734824660843964]
ニューラルネットワークに対するビットフリップ攻撃に対する符号化に基づく保護手法について,DeepNcodeと題して紹介する。
この結果、保護マージンが最大で$4-$bitが$7.6times、$2.4timesが$8-$bitの量子化ネットワークで$12.4timesになることが示された。
論文 参考訳(メタデータ) (2024-05-22T18:01:34Z) - Federated Learning Under Attack: Exposing Vulnerabilities through Data
Poisoning Attacks in Computer Networks [17.857547954232754]
Federated Learning(FL)は、複数の分散デバイスやエッジサーバが生データを交換することなく、共同で共有モデルをトレーニングできる機械学習アプローチである。
クライアントとサーバ間のモデル更新のトレーニングと共有の間、データとモデルは異なるデータポゾン攻撃の影響を受けやすい。
我々は,ラベルフリップ (LF) と特徴中毒 (FP) の2種類のデータ中毒攻撃を検討した。
論文 参考訳(メタデータ) (2024-03-05T14:03:15Z) - One-bit Flip is All You Need: When Bit-flip Attack Meets Model Training [54.622474306336635]
メモリフォールトインジェクション技術を利用したビットフリップ攻撃(BFA)と呼ばれる新たな重み修正攻撃が提案された。
本稿では,高リスクモデルを構築するための訓練段階に敵が関与する,訓練支援ビットフリップ攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-12T09:34:43Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - ZeBRA: Precisely Destroying Neural Networks with Zero-Data Based
Repeated Bit Flip Attack [10.31732879936362]
我々は、ディープニューラルネットワーク(DNN)を正確に破壊するゼロデータベースの繰り返しビットフリップアタック(ZeBRA)を提案する。
我々のアプローチは、DNNの安全のために敵の重量攻撃をより致命的なものにしている。
論文 参考訳(メタデータ) (2021-11-01T16:44:20Z) - Iterative Pseudo-Labeling with Deep Feature Annotation and
Confidence-Based Sampling [127.46527972920383]
大規模で注釈付きデータセットが利用できない場合には、ディープニューラルネットワークのトレーニングは難しい。
我々は、最も確実な教師なしサンプルを選択して、深層ニューラルネットワークを反復的に訓練することで、最近の反復的擬似ラベル技術であるDeep Featureを改善した。
まず最初に、自己学習されたディープニューラルネットワークであるベースラインの最適な設定を確認し、異なる信頼しきい値に対してDeepFAを評価する。
論文 参考訳(メタデータ) (2021-09-06T20:02:13Z) - Broadly Applicable Targeted Data Sample Omission Attacks [15.077408234311816]
学習機構において,新規なクリーンラベル標的中毒攻撃を提案する。
私たちの攻撃は、そのサンプルを操作することなく、選択した単一のターゲットテストサンプルを分類します。
攻撃予算が低い場合、攻撃の成功率は80%以上であり、場合によってはホワイトボックス学習において100%であることを示す。
論文 参考訳(メタデータ) (2021-05-04T15:20:54Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - T-BFA: Targeted Bit-Flip Adversarial Weight Attack [36.80180060697878]
Bit-Flipベースの対向重み攻撃(BFA)は、実行中のDNN関数をハイジャックするために、非常に少量の障害を重みパラメータに注入する。
本稿では,DNNに対するT-BFA(T-BFA)対向重み攻撃の最初の取り組みを提案する。
論文 参考訳(メタデータ) (2020-07-24T03:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。