論文の概要: AttackGNN: Red-Teaming GNNs in Hardware Security Using Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2402.13946v1
- Date: Wed, 21 Feb 2024 17:18:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 14:16:08.362761
- Title: AttackGNN: Red-Teaming GNNs in Hardware Security Using Reinforcement
Learning
- Title(参考訳): AttackGNN:強化学習を用いたハードウェアセキュリティにおけるGNNの再編成
- Authors: Vasudev Gohil, Satwik Patnaik, Dileep Kalathil, Jeyavijayan Rajendran
- Abstract要約: 我々は,ハードウェアセキュリティにおけるGNNベースの技術に対する最初のレッドチーム攻撃であるAttackGNNを提案する。
我々は,IP海賊行為,HTの検出とローカライズ,リバースエンジニアリング,ハードウェア難読化という,ハードウェアセキュリティにおける4つの重要な問題に対して,GNNベースの5つのテクニックをターゲットにしている。
- 参考スコア(独自算出の注目度): 16.751700469734708
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine learning has shown great promise in addressing several critical
hardware security problems. In particular, researchers have developed novel
graph neural network (GNN)-based techniques for detecting intellectual property
(IP) piracy, detecting hardware Trojans (HTs), and reverse engineering
circuits, to name a few. These techniques have demonstrated outstanding
accuracy and have received much attention in the community. However, since
these techniques are used for security applications, it is imperative to
evaluate them thoroughly and ensure they are robust and do not compromise the
security of integrated circuits.
In this work, we propose AttackGNN, the first red-team attack on GNN-based
techniques in hardware security. To this end, we devise a novel reinforcement
learning (RL) agent that generates adversarial examples, i.e., circuits,
against the GNN-based techniques. We overcome three challenges related to
effectiveness, scalability, and generality to devise a potent RL agent. We
target five GNN-based techniques for four crucial classes of problems in
hardware security: IP piracy, detecting/localizing HTs, reverse engineering,
and hardware obfuscation. Through our approach, we craft circuits that fool all
GNNs considered in this work. For instance, to evade IP piracy detection, we
generate adversarial pirated circuits that fool the GNN-based defense into
classifying our crafted circuits as not pirated. For attacking HT localization
GNN, our attack generates HT-infested circuits that fool the defense on all
tested circuits. We obtain a similar 100% success rate against GNNs for all
classes of problems.
- Abstract(参考訳): 機械学習は、いくつかの重要なハードウェアセキュリティ問題に対処する上で大きな可能性を秘めている。
特に、研究者は、知的財産権(IP)の海賊行為、ハードウェアトロイの木馬(HT)の検出、リバースエンジニアリング回路などを検出する新しいグラフニューラルネットワーク(GNN)ベースの技術を開発した。
これらの技術は顕著な精度を示し、コミュニティで多くの注目を集めている。
しかし、これらの技術はセキュリティアプリケーションに使用されるため、それらを徹底的に評価し、堅牢で、集積回路のセキュリティを損なわないよう保証することが不可欠である。
本研究では,ハードウェアセキュリティにおけるGNNベースの技術に対する最初のレッドチーム攻撃であるAttackGNNを提案する。
そこで我々は,GNNに基づく手法に対して,回路の逆例を生成する新しい強化学習(RL)エージェントを考案した。
有効性,スケーラビリティ,汎用性の3つの課題を克服し,強力なRLエージェントを考案する。
我々は,IP海賊行為,HTの検出とローカライズ,リバースエンジニアリング,ハードウェア難読化という,ハードウェアセキュリティにおける4つの重要な問題に対して,GNNベースの5つのテクニックをターゲットにしている。
このアプローチを通じて、私たちはこの作業で考慮されたすべてのGNNを騙す回路を作ります。
例えば、IP海賊行為の検出を避けるために、GNNベースの防御を騙して、我々の製造した回路を海賊ではないと分類する敵海賊回路を生成する。
HTローカライゼーションGNNを攻撃するために、我々の攻撃はHTに感染した回路を生成し、テストされた全ての回路の防御を妨害する。
問題の全クラスについて、GNNに対して同様の100%の成功率を得る。
関連論文リスト
- Data Poisoning-based Backdoor Attack Framework against Supervised Learning Rules of Spiking Neural Networks [3.9444202574850755]
スパイキングニューラルネットワーク(SNN)は、低エネルギー消費と高ロバスト性で知られている。
本稿では,バックドア攻撃時の教師付き学習規則により訓練されたSNNの堅牢性について検討する。
論文 参考訳(メタデータ) (2024-09-24T02:15:19Z) - SNNGX: Securing Spiking Neural Networks with Genetic XOR Encryption on RRAM-based Neuromorphic Accelerator [34.474841993360855]
スパイキングニューラルネットワーク(SNN)はスパイクスパシティを特徴とするもので、知的エッジデバイスや重要なバイオメディカル応用に対して大きな注目を集めている。
しかし、SNNからホワイトボックス情報を抽出しようとする悪意のある試みにはかなりのリスクがある。
我々は,SNNのIPを保護するために,セキュアなRRAMベースのニューロモルフィックアクセラレータを提案する。
論文 参考訳(メタデータ) (2024-07-21T13:08:05Z) - Evasive Hardware Trojan through Adversarial Power Trace [6.949268510101616]
我々は,HT検出をバイパスするためのHT難読化(HTO)手法を提案する。
HTOはASICとFPGA用の1つのトランジスタで実装できる。
適応攻撃者は、スペクトルノイズ予算で設計を制約することで、まだ回避可能なHTOを設計可能であることを示す。
論文 参考訳(メタデータ) (2024-01-04T16:28:15Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - On Strengthening and Defending Graph Reconstruction Attack with Markov
Chain Approximation [40.21760151203987]
本研究は,ノードの隣接性を再構築することを目的としたグラフ再構成攻撃の総合的研究である。
我々は、GNNにおける様々な要因が、驚くほどのプライベートリンクの漏洩につながることを示している。
そこで我々は,(1)よりプライベートな情報を抽出する適応設計のチェーンベース攻撃法,(2)精度の低い攻撃忠実度を鋭く低減するチェーンベース防御法,という2つの情報理論誘導機構を提案する。
論文 参考訳(メタデータ) (2023-06-15T13:00:56Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware [48.7072217216104]
ディープ・ニューラル・ネットワーク(DNN)は構造的マルウェア(すなわち、重みと活性化経路)を持つ
バックドアの検出は一般的に困難であり、既存の検出手法は計算に高価であり、膨大なリソースを必要とする(トレーニングデータへのアクセスなど)。
そこで本研究では,DNNの堅牢性,指紋の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
実験の結果,既存の手法(秒対秒)よりも高い信頼度でバックドアを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2020-07-31T23:52:58Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z) - Skip Connections Matter: On the Transferability of Adversarial Examples
Generated with ResNets [83.12737997548645]
スキップ接続は、現在最先端のディープニューラルネットワーク(DNN)の重要な構成要素である
スキップ接続を使用することで、高度に転送可能な逆例を簡単に生成できる。
我々は、ResNets、DenseNets、Inceptions、Inception-ResNet、Squeeze-and-Excitation Network (SENet)を含む最先端DNNに対する包括的な転送攻撃を行う。
論文 参考訳(メタデータ) (2020-02-14T12:09:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。