論文の概要: NetDeTox: Adversarial and Efficient Evasion of Hardware-Security GNNs via RL-LLM Orchestration
- arxiv url: http://arxiv.org/abs/2512.00119v1
- Date: Thu, 27 Nov 2025 20:45:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.077767
- Title: NetDeTox: Adversarial and Efficient Evasion of Hardware-Security GNNs via RL-LLM Orchestration
- Title(参考訳): NetDeTox: RL-LLMオーケストレーションによるハードウェアセキュリティGNNの対角的かつ効率的な普及
- Authors: Zeng Wang, Minghao Shao, Akashdeep Saha, Ramesh Karri, Johann Knechtel, Muhammad Shafique, Ozgur Sinanoglu,
- Abstract要約: グラフニューラルネットワーク(GNN)は、ネットリストグラフから構造モチーフを学ぶことによって、ハードウェアセキュリティにおいて有望であることを示す。
既存の敵のアプローチには高い設計オーバーヘッドが伴う。
我々は、大規模言語モデルを強化学習でオーケストレーションする、エンドツーエンドの自動フレームワークNetDeToxを紹介する。
- 参考スコア(独自算出の注目度): 15.247199764527629
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have shown promise in hardware security by learning structural motifs from netlist graphs. However, this reliance on motifs makes GNNs vulnerable to adversarial netlist rewrites; even small-scale edits can mislead GNN predictions. Existing adversarial approaches, ranging from synthesis-recipe perturbations to gate transformations, come with high design overheads. We present NetDeTox, an automated end-to-end framework that orchestrates large language models (LLMs) with reinforcement learning (RL) in a systematic manner, enabling focused local rewriting. The RL agent identifies netlist components critical for GNN-based reasoning, while the LLM devises rewriting plans to diversify motifs that preserve functionality. Iterative feedback between the RL and LLM stages refines adversarial rewritings to limit overheads. Compared to the SOTA work AttackGNN, NetDeTox successfully degrades the effectiveness of all security schemes with fewer rewrites and substantially lower area overheads (reductions of 54.50% for GNN-RE, 25.44% for GNN4IP, and 41.04% for OMLA, respectively). For GNN4IP, ours can even optimize/reduce the original benchmarks' area, in particular for larger circuits, demonstrating the practicality and scalability of NetDeTox.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ネットリストグラフから構造モチーフを学ぶことによって、ハードウェアセキュリティにおいて有望であることを示す。
しかし、このモチーフに依存しているため、GNNは敵のネットリストの書き直しに弱い。
合成レシピの摂動からゲート変換まで、既存の敵のアプローチには高い設計オーバーヘッドが伴う。
我々は、大規模言語モデル(LLM)と強化学習(RL)を体系的にオーケストレーションし、集中的な局所的な書き換えを可能にする、自動化されたエンドツーエンドフレームワークNetDeToxを提案する。
RLエージェントは、GNNベースの推論に不可欠なネットリストコンポーネントを特定し、LLMは、機能を保存するモチーフを多様化する書き直し計画を考案している。
RLとLLMステージ間の反復的なフィードバックは、オーバーヘッドを制限するために敵の書き換えを洗練させる。
SOTAのAttackGNNと比較すると、NetDeToxは書き直しの少ない全セキュリティスキームの有効性を著しく低下させる(GNN-REでは54.50%、GNN4IPでは25.44%、OMLAでは41.04%)。
GNN4IPでは,従来のベンチマーク領域,特に大規模回路を最適化・再現し,NetDeToxの実用性とスケーラビリティを実証することができる。
関連論文リスト
- Ralts: Robust Aggregation for Enhancing Graph Neural Network Resilience on Bit-flip Errors [10.361566017170295]
本稿では,ビットフリップ誤りに対するGNNのロバスト性を包括的に分析する。
本稿では,ビットフリップエラーに対するGNNレジリエンスを高めるための汎用的で軽量なソリューションであるRaltsを提案する。
Raltsはさまざまなグラフ類似度指標を利用して、アウトレーヤをフィルタリングし、妥協したグラフトポロジを復元する。
論文 参考訳(メタデータ) (2025-07-24T21:03:44Z) - Proxy Target: Bridging the Gap Between Discrete Spiking Neural Networks and Continuous Control [59.65431931190187]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上で低レイテンシかつエネルギー効率の意思決定を提供する。
連続制御のためのほとんどの連続制御アルゴリズムは、人工ニューラルネットワーク(ANN)のために設計されている。
このミスマッチはSNNのトレーニングを不安定にし、性能を劣化させる。
離散SNNと連続制御アルゴリズムのギャップを埋める新しいプロキシターゲットフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T03:08:03Z) - Grimm: A Plug-and-Play Perturbation Rectifier for Graph Neural Networks Defending against Poisoning Attacks [53.972077392749185]
近年の研究では、ノード分類タスクに対する敵対的中毒攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性が明らかにされている。
ここでは、最初のプラグアンドプレイディフェンスモデルであるGrimmを紹介します。
論文 参考訳(メタデータ) (2024-12-11T17:17:02Z) - Can Large Language Models Improve the Adversarial Robustness of Graph Neural Networks? [45.55125612241908]
グラフニューラルネットワーク(GNN)は、特にトポロジの摂動に対して、敵対的な攻撃に対して脆弱である。
LLMに基づく頑健なグラフ構造推論フレームワーク LLM4RGNN を提案する。
論文 参考訳(メタデータ) (2024-08-16T11:58:34Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Certified Defense on the Fairness of Graph Neural Networks [86.14235652889242]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。