論文の概要: DNN-Defender: A Victim-Focused In-DRAM Defense Mechanism for Taming Adversarial Weight Attack on DNNs
- arxiv url: http://arxiv.org/abs/2305.08034v2
- Date: Tue, 10 Sep 2024 16:03:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-11 23:57:26.396973
- Title: DNN-Defender: A Victim-Focused In-DRAM Defense Mechanism for Taming Adversarial Weight Attack on DNNs
- Title(参考訳): DNN-Defender: DNNの対向重み攻撃に対処するためのVictim-Focused In-DRAM防御機構
- Authors: Ranyang Zhou, Sabbir Ahmed, Adnan Siraj Rakin, Shaahin Angizi,
- Abstract要約: 本稿では,DNN(Quantized Deep Neural Networks)に適したDRAMベースの犠牲者中心防御機構について紹介する。
DNN-Defenderは、ターゲットのRowHammer攻撃のパフォーマンスをランダムな攻撃レベルに低下させる高いレベルの保護を提供することができる。
提案されたディフェンスは、ソフトウェアトレーニングやハードウェアオーバーヘッドを発生させることなく、CIFAR-10とImageNetデータセットに精度の低下はない。
- 参考スコア(独自算出の注目度): 10.201050807991175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With deep learning deployed in many security-sensitive areas, machine learning security is becoming progressively important. Recent studies demonstrate attackers can exploit system-level techniques exploiting the RowHammer vulnerability of DRAM to deterministically and precisely flip bits in Deep Neural Networks (DNN) model weights to affect inference accuracy. The existing defense mechanisms are software-based, such as weight reconstruction requiring expensive training overhead or performance degradation. On the other hand, generic hardware-based victim-/aggressor-focused mechanisms impose expensive hardware overheads and preserve the spatial connection between victim and aggressor rows. In this paper, we present the first DRAM-based victim-focused defense mechanism tailored for quantized DNNs, named DNN-Defender that leverages the potential of in-DRAM swapping to withstand the targeted bit-flip attacks with a priority protection mechanism. Our results indicate that DNN-Defender can deliver a high level of protection downgrading the performance of targeted RowHammer attacks to a random attack level. In addition, the proposed defense has no accuracy drop on CIFAR-10 and ImageNet datasets without requiring any software training or incurring hardware overhead.
- Abstract(参考訳): 多くのセキュリティに敏感な分野にディープラーニングが展開されるにつれ、機械学習のセキュリティは徐々に重要になりつつある。
近年の研究では、DRAMのRowHammer脆弱性を利用して、ディープニューラルネットワーク(DNN)モデルの重み付けを決定的かつ正確にフリップし、推論精度に影響を与えるシステムレベルのテクニックを攻撃者が活用できることが示されている。
既存の防御機構はソフトウェアベースで、例えば重量再構成には高価なトレーニングオーバーヘッドや性能劣化が必要になる。
一方、汎用的なハードウェアベースの被害者/攻撃者に焦点を当てたメカニズムは、高価なハードウェアオーバーヘッドを課し、被害者と攻撃者列の間の空間的接続を維持する。
そこで本稿では,DNN-Defender という量子化 DNN に適した DRAM ベースのディフェンス機構を提案する。
以上の結果から,DNN-DefenderはターゲットRowHammer攻撃の性能をランダムな攻撃レベルに低下させる高いレベルの保護を提供することが可能であることが示唆された。
さらに、提案されたディフェンスは、ソフトウェアトレーニングやハードウェアオーバーヘッドを発生させることなく、CIFAR-10とImageNetデータセットに精度を落としない。
関連論文リスト
- ADVREPAIR:Provable Repair of Adversarial Attack [15.580097790702508]
ディープニューラルネットワーク(DNN)は、ますます安全クリティカルなドメインにデプロイされているが、敵の攻撃に対する脆弱性は深刻な安全リスクを引き起こす。
制限されたデータを用いた既存のニューロンレベルの手法は、敵の攻撃機構の複雑さにより、敵の修正に有効性が欠如している。
本稿では,限られたデータを用いた敵攻撃の是正可能な修復手法であるADVREPAIRを提案する。
論文 参考訳(メタデータ) (2024-04-02T05:16:59Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Threshold Breaker: Can Counter-Based RowHammer Prevention Mechanisms Truly Safeguard DRAM? [8.973443004379561]
本稿では,Threshold Breakerと呼ばれる多面的障害注入攻撃手法を実験的に実証する。
ターゲットの行から遠い物理的距離で行をソフトアタックすることで、最も先進的なカウンターベース防御機構を効果的に回避することができる。
ケーススタディとして、現代のディープニューラルネットワーク(DNN)に対して対向重み攻撃を行うことにより、我々のメカニズムとよく知られた両面攻撃のパフォーマンス効率を比較する。
論文 参考訳(メタデータ) (2023-11-28T03:36:17Z) - Untargeted White-box Adversarial Attack with Heuristic Defence Methods
in Real-time Deep Learning based Network Intrusion Detection System [0.0]
Adversarial Machine Learning (AML)では、悪意のあるアクターが機械学習(ML)とディープラーニング(DL)モデルを騙して、誤った予測を生成する。
AMLは新たな研究領域であり、敵の攻撃の詳細な研究に欠かせないものとなっている。
我々は,FGSM(Fast Gradient Sign Method),JSMA(Jacobian Saliency Map Attack),PGD(Projected Gradient Descent),Cerini & Wagner(C&W)の4つの強力な攻撃手法を実装した。
論文 参考訳(メタデータ) (2023-10-05T06:32:56Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - DODEM: DOuble DEfense Mechanism Against Adversarial Attacks Towards
Secure Industrial Internet of Things Analytics [8.697883716452385]
I-IoT環境における敵攻撃の検出と軽減のための二重防御機構を提案する。
まず、新規性検出アルゴリズムを用いて、サンプルに対して逆攻撃があるかどうかを検知する。
攻撃があった場合、敵の再訓練はより堅牢なモデルを提供する一方、通常のサンプルに対して標準的な訓練を適用する。
論文 参考訳(メタデータ) (2023-01-23T22:10:40Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。