論文の概要: BDFA: A Blind Data Adversarial Bit-flip Attack on Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2112.03477v1
- Date: Tue, 7 Dec 2021 03:53:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 01:30:19.910539
- Title: BDFA: A Blind Data Adversarial Bit-flip Attack on Deep Neural Networks
- Title(参考訳): BDFA:ディープニューラルネットワークにおけるブラインドデータ逆ビットフリップ攻撃
- Authors: Behnam Ghavami, Mani Sadati, Mohammad Shahidzadeh, Zhenman Fang,
Lesley Shannon
- Abstract要約: Blind Data Adversarial Bit-flip Attack (BDFA)は、トレーニングデータやテストデータにアクセスせずにBFAを有効にする新しいテクニックである。
BDFAはResNet50の精度を75.96%から13.94%に大幅に下げることができた。
- 参考スコア(独自算出の注目度): 0.05249805590164901
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial bit-flip attack (BFA) on Neural Network weights can result in
catastrophic accuracy degradation by flipping a very small number of bits. A
major drawback of prior bit flip attack techniques is their reliance on test
data. This is frequently not possible for applications that contain sensitive
or proprietary data. In this paper, we propose Blind Data Adversarial Bit-flip
Attack (BDFA), a novel technique to enable BFA without any access to the
training or testing data. This is achieved by optimizing for a synthetic
dataset, which is engineered to match the statistics of batch normalization
across different layers of the network and the targeted label. Experimental
results show that BDFA could decrease the accuracy of ResNet50 significantly
from 75.96\% to 13.94\% with only 4 bits flips.
- Abstract(参考訳): ニューラルネットワーク重みに対する逆ビットフリップ攻撃(BFA)は、非常に少数のビットを反転させることで壊滅的な精度低下をもたらす。
以前のビットフリップ攻撃手法の大きな欠点は、テストデータに依存することである。
これは、機密データやプロプライエタリデータを含むアプリケーションではしばしば不可能である。
本稿では,bfaをトレーニングやテストデータにアクセスせずに有効化する新しい手法であるbdfaを提案する。
これは、ネットワークの異なる層とターゲットラベルにまたがるバッチ正規化の統計にマッチするように設計された合成データセットを最適化することで実現される。
実験の結果、BDFAはResNet50の精度を75.96\%から13.94\%に大幅に下げることができた。
関連論文リスト
- No Data, No Optimization: A Lightweight Method To Disrupt Neural Networks With Sign-Flips [17.136832159667204]
Deep Neural Lesion (DNL)は、重要なパラメータを特定し、大規模な精度低下を引き起こす、データフリーで軽量な方法である。
様々なコンピュータビジョンモデルとデータセットで有効性を検証する。
論文 参考訳(メタデータ) (2025-02-11T09:40:45Z) - Exact Certification of (Graph) Neural Networks Against Label Poisoning [50.87615167799367]
機械学習モデルはラベルのフリップ(ラベルのフリップ)に弱い。
サンプルと集合証明書の両方を抽出し,正確な認証手法を提案する。
私たちの研究は、ニューラルネットワークによって引き起こされた毒殺攻撃に対する最初の正確な証明書を提示しました。
論文 参考訳(メタデータ) (2024-11-30T17:05:12Z) - DeepNcode: Encoding-Based Protection against Bit-Flip Attacks on Neural Networks [4.734824660843964]
ニューラルネットワークに対するビットフリップ攻撃に対する符号化に基づく保護手法について,DeepNcodeと題して紹介する。
この結果、保護マージンが最大で$4-$bitが$7.6times、$2.4timesが$8-$bitの量子化ネットワークで$12.4timesになることが示された。
論文 参考訳(メタデータ) (2024-05-22T18:01:34Z) - One-bit Flip is All You Need: When Bit-flip Attack Meets Model Training [54.622474306336635]
メモリフォールトインジェクション技術を利用したビットフリップ攻撃(BFA)と呼ばれる新たな重み修正攻撃が提案された。
本稿では,高リスクモデルを構築するための訓練段階に敵が関与する,訓練支援ビットフリップ攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-12T09:34:43Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - ZeBRA: Precisely Destroying Neural Networks with Zero-Data Based
Repeated Bit Flip Attack [10.31732879936362]
我々は、ディープニューラルネットワーク(DNN)を正確に破壊するゼロデータベースの繰り返しビットフリップアタック(ZeBRA)を提案する。
我々のアプローチは、DNNの安全のために敵の重量攻撃をより致命的なものにしている。
論文 参考訳(メタデータ) (2021-11-01T16:44:20Z) - Iterative Pseudo-Labeling with Deep Feature Annotation and
Confidence-Based Sampling [127.46527972920383]
大規模で注釈付きデータセットが利用できない場合には、ディープニューラルネットワークのトレーニングは難しい。
我々は、最も確実な教師なしサンプルを選択して、深層ニューラルネットワークを反復的に訓練することで、最近の反復的擬似ラベル技術であるDeep Featureを改善した。
まず最初に、自己学習されたディープニューラルネットワークであるベースラインの最適な設定を確認し、異なる信頼しきい値に対してDeepFAを評価する。
論文 参考訳(メタデータ) (2021-09-06T20:02:13Z) - Broadly Applicable Targeted Data Sample Omission Attacks [15.077408234311816]
学習機構において,新規なクリーンラベル標的中毒攻撃を提案する。
私たちの攻撃は、そのサンプルを操作することなく、選択した単一のターゲットテストサンプルを分類します。
攻撃予算が低い場合、攻撃の成功率は80%以上であり、場合によってはホワイトボックス学習において100%であることを示す。
論文 参考訳(メタデータ) (2021-05-04T15:20:54Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - T-BFA: Targeted Bit-Flip Adversarial Weight Attack [36.80180060697878]
Bit-Flipベースの対向重み攻撃(BFA)は、実行中のDNN関数をハイジャックするために、非常に少量の障害を重みパラメータに注入する。
本稿では,DNNに対するT-BFA(T-BFA)対向重み攻撃の最初の取り組みを提案する。
論文 参考訳(メタデータ) (2020-07-24T03:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。