論文の概要: HASHTAG: Hash Signatures for Online Detection of Fault-Injection Attacks
on Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2111.01932v1
- Date: Tue, 2 Nov 2021 22:47:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 00:09:32.623740
- Title: HASHTAG: Hash Signatures for Online Detection of Fault-Injection Attacks
on Deep Neural Networks
- Title(参考訳): HASHTAG:ディープニューラルネットワークにおける障害注入攻撃のオンライン検出のためのハッシュシグナチャ
- Authors: Mojan Javaheripi, Farinaz Koushanfar
- Abstract要約: 我々は,Deep Neural Networks (DNN) における障害注入攻撃の高精度検出を可能にする最初のフレームワークである HASHTAG を提案する。
近年のフォールトインジェクション攻撃では,ビットフリップによるDNNの精度低下が報告されている。
HASHTAGには,組込みプラットフォーム上での低オーバーヘッドかつリアルタイムな障害検出を実現する,軽量な方法論が組み込まれている。
- 参考スコア(独自算出の注目度): 14.192217297770378
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose HASHTAG, the first framework that enables high-accuracy detection
of fault-injection attacks on Deep Neural Networks (DNNs) with provable bounds
on detection performance. Recent literature in fault-injection attacks shows
the severe DNN accuracy degradation caused by bit flips. In this scenario, the
attacker changes a few weight bits during DNN execution by tampering with the
program's DRAM memory. To detect runtime bit flips, HASHTAG extracts a unique
signature from the benign DNN prior to deployment. The signature is later used
to validate the integrity of the DNN and verify the inference output on the
fly. We propose a novel sensitivity analysis scheme that accurately identifies
the most vulnerable DNN layers to the fault-injection attack. The DNN signature
is then constructed by encoding the underlying weights in the vulnerable layers
using a low-collision hash function. When the DNN is deployed, new hashes are
extracted from the target layers during inference and compared against the
ground-truth signatures. HASHTAG incorporates a lightweight methodology that
ensures a low-overhead and real-time fault detection on embedded platforms.
Extensive evaluations with the state-of-the-art bit-flip attack on various DNNs
demonstrate the competitive advantage of HASHTAG in terms of both attack
detection and execution overhead.
- Abstract(参考訳): 本稿では,Deep Neural Networks (DNN) における障害注入攻撃の高精度検出を可能にする最初のフレームワークであるHASHTAGを提案する。
近年のフォールトインジェクション攻撃では,ビットフリップによるDNNの精度低下が報告されている。
このシナリオでは、攻撃者はプログラムのDRAMメモリを改ざんすることで、DNN実行中にいくつかの重みを変更できる。
ランタイムビットフリップを検出するため、HASHTAGはデプロイ前に良質なDNNからユニークなシグネチャを抽出する。
このシグネチャは後に、DNNの整合性を検証し、フライ時の推論出力を検証するために使用される。
本稿では,障害注入攻撃に対する最も脆弱なDNN層を正確に識別する新しい感度解析手法を提案する。
次にdnnシグネチャは、脆弱なレイヤの基盤となる重みを低コリシオンハッシュ関数を使ってエンコードすることで構築される。
DNNがデプロイされると、推論中にターゲット層から新しいハッシュを抽出し、接地トラストシグネチャと比較する。
HASHTAGには,組込みプラットフォーム上での低オーバーヘッドかつリアルタイムな障害検出を実現する,軽量な方法論が組み込まれている。
各種DNNに対する最先端ビットフリップ攻撃による広範囲な評価は、攻撃検出と実行オーバーヘッドの両方の観点から、HASHTAGの競争上の優位性を示している。
関連論文リスト
- DeepiSign-G: Generic Watermark to Stamp Hidden DNN Parameters for Self-contained Tracking [15.394110881491773]
DeepiSign-Gは、CNNやRNNを含む主要なDNNアーキテクチャの包括的な検証のために設計された汎用的な透かし方式である。
従来のハッシュ技術とは異なり、DeepiSign-Gはモデルに直接メタデータを組み込むことができ、詳細な自己完結型トラッキングと検証を可能にする。
我々は,CNNモデル(VGG,ResNets,DenseNet)やRNN(テキスト感情分類器)など,さまざまなアーキテクチャにおけるDeepiSign-Gの適用性を実証する。
論文 参考訳(メタデータ) (2024-07-01T13:15:38Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - AntidoteRT: Run-time Detection and Correction of Poison Attacks on
Neural Networks [18.461079157949698]
画像分類ネットワークに対する バックドア毒殺攻撃
本稿では,毒殺攻撃に対する簡易な自動検出・補正手法を提案する。
我々の手法は、一般的なベンチマークにおいて、NeuralCleanseやSTRIPといった既存の防御よりも優れています。
論文 参考訳(メタデータ) (2022-01-31T23:42:32Z) - Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids [7.351477761427584]
偽データインジェクション攻撃(FDIA)は、電力システムの状態推定に重大なセキュリティ上の脅威をもたらす。
最近の研究では、機械学習(ML)技術、特にディープニューラルネットワーク(DNN)が提案されている。
論文 参考訳(メタデータ) (2021-02-17T22:26:34Z) - DPAttack: Diffused Patch Attacks against Universal Object Detection [66.026630370248]
対象検出に対する敵対攻撃は、全画素攻撃とパッチ攻撃の2つのカテゴリに分けられる。
小惑星や格子状形状の拡散パッチを用いて物体検出装置を騙すための拡散パッチ攻撃(textbfDPAttack)を提案する。
実験の結果、我々のDPAttackは拡散パッチでほとんどの物体検出器を騙すことに成功した。
論文 参考訳(メタデータ) (2020-10-16T04:48:24Z) - ConFoc: Content-Focus Protection Against Trojan Attacks on Neural
Networks [0.0]
トロイの木馬攻撃は、推測やテストの時間に悪用されるマークまたはトリガーのサンプルを使用して、トレーニング時にいくつかの誤った振る舞いを挿入する。
本稿では、DNNが入力のスタイルを無視してコンテンツに集中するように教えられるトロイの木馬攻撃に対する防御手法を提案する。
その結果,本手法は全攻撃における攻撃成功率を1%に低下させることがわかった。
論文 参考訳(メタデータ) (2020-07-01T19:25:34Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。