論文の概要: Unleashing GHOST: An LLM-Powered Framework for Automated Hardware Trojan Design
- arxiv url: http://arxiv.org/abs/2412.02816v1
- Date: Tue, 03 Dec 2024 20:33:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:06:21.611840
- Title: Unleashing GHOST: An LLM-Powered Framework for Automated Hardware Trojan Design
- Title(参考訳): Unleashing GHOST: 自動ハードウェアトロイの木馬設計のためのLLMベースのフレームワーク
- Authors: Md Omar Faruque, Peter Jamieson, Ahmad Patooghy, Abdel-Hameed A. Badawy,
- Abstract要約: GHOSTは、大規模言語モデル(LLM)を活用して高速なHT生成と挿入を行う自動攻撃フレームワークである。
GHOST生成HTの100%はML生成HT検出ツールによる検出を回避した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Traditionally, inserting realistic Hardware Trojans (HTs) into complex hardware systems has been a time-consuming and manual process, requiring comprehensive knowledge of the design and navigating intricate Hardware Description Language (HDL) codebases. Machine Learning (ML)-based approaches have attempted to automate this process but often face challenges such as the need for extensive training data, long learning times, and limited generalizability across diverse hardware design landscapes. This paper addresses these challenges by proposing GHOST (Generator for Hardware-Oriented Stealthy Trojans), an automated attack framework that leverages Large Language Models (LLMs) for rapid HT generation and insertion. Our study evaluates three state-of-the-art LLMs - GPT-4, Gemini-1.5-pro, and Llama-3-70B - across three hardware designs: SRAM, AES, and UART. According to our evaluations, GPT-4 demonstrates superior performance, with 88.88% of HT insertion attempts successfully generating functional and synthesizable HTs. This study also highlights the security risks posed by LLM-generated HTs, showing that 100% of GHOST-generated synthesizable HTs evaded detection by an ML-based HT detection tool. These results underscore the urgent need for advanced detection and prevention mechanisms in hardware security to address the emerging threat of LLM-generated HTs. The GHOST HT benchmarks are available at: https://github.com/HSTRG1/GHOSTbenchmarks.git
- Abstract(参考訳): 伝統的に、現実的なハードウェアトロイの木馬(HT)を複雑なハードウェアシステムに挿入するには時間と手作業が必要であり、複雑なハードウェア記述言語(HDL)コードベースの設計と操作に関する包括的な知識が必要である。
機械学習(ML)ベースのアプローチは、このプロセスを自動化しようとしてきたが、広範なトレーニングデータの必要性、長い学習時間、さまざまなハードウェアデザインのランドスケープにまたがる限定的な一般化性といった課題に直面していることが多い。
本稿では,GHOST(Generator for Hardware-Oriented Stealthy Trojans)という,大規模言語モデル(LLM)を利用した高速HT生成と挿入のための自動攻撃フレームワークを提案する。
本研究は,GPT-4,Gemini-1.5-pro,Llama-3-70Bの3つのハードウェア設計(SRAM,AES,UART)について検討した。
我々の評価によると、GPT-4は、88.88%のHT挿入が機能的で合成可能なHTの生成に成功し、優れた性能を示す。
本研究は,LLM生成HTによるセキュリティリスクも強調し,GHOST生成HTの100%がMLベースHT検出ツールによる検出を回避したことを示した。
これらの結果は,LLM生成HTの出現する脅威に対処するため,ハードウェアセキュリティにおける高度な検出・防止機構の緊急の必要性を浮き彫りにしている。
GHOST HTベンチマークは、https://github.com/HSTRG1/GHOSTbenchmarks.gitで公開されている。
関連論文リスト
- Exploring Code Language Models for Automated HLS-based Hardware Generation: Benchmark, Infrastructure and Analysis [49.998130983414924]
LLM(Large Language Model)は、PythonやC++などのプログラミング言語に使用される。
本稿では,LLMを利用してHLS(High-Level Synthesis)ベースのハードウェア設計を行う。
論文 参考訳(メタデータ) (2025-02-19T17:53:59Z) - Hadamard Attention Recurrent Transformer: A Strong Baseline for Stereo Matching Transformer [54.97718043685824]
textbfHadamard textbfAttention textbfRecurrent Stereo textbfTransformer (HART)について述べる。
より高速な推論のために、線形計算複雑性を実現するための注意機構のためのアダマール積のパラダイムを提案する。
Dense Attention Kernel (DAK) を設計し、関連する機能応答と無関係な機能応答の違いを増幅する。
我々は,大小のカーネル畳み込みのインターリーブを通じて,グローバル情報とローカル情報の両方をキャプチャするMKOIを提案する。
論文 参考訳(メタデータ) (2025-01-02T02:51:16Z) - SENTAUR: Security EnhaNced Trojan Assessment Using LLMs Against Undesirable Revisions [17.21926121783922]
ハードウェアトロイジャン(HT)は、ステルスな動作の導入、意図したIC作業の防止、またはサイドチャネルを介して機密データを漏洩することができる。
HTに対処するためには、HTシナリオを迅速に調査することが重要な要件である。
本稿では,登録転送レベル(RTL)設計のためのHTスイートを生成するための大規模言語モデル(LLM)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-17T07:13:06Z) - TrojanForge: Generating Adversarial Hardware Trojan Examples Using Reinforcement Learning [0.0]
ハードウェアトロイの木馬問題は、攻撃者とディフェンダーの間の連続したゲームと考えることができる。
機械学習は近年、HT研究の進展において重要な役割を担っている。
TrojanForgeはHT検出器を倒す敵の例を生成する。
論文 参考訳(メタデータ) (2024-05-24T03:37:32Z) - Holographic Global Convolutional Networks for Long-Range Prediction Tasks in Malware Detection [50.7263393517558]
ホログラフィック還元表現(HRR)の特性を利用したホログラフィックグローバル畳み込みネットワーク(HGConv)を導入する。
他のグローバルな畳み込み法とは異なり、我々の手法は複雑なカーネル計算や人工カーネル設計を必要としない。
提案手法は,Microsoft Malware Classification Challenge, Drebin, EMBERのマルウェアベンチマークで新たなSOTA結果を得た。
論文 参考訳(メタデータ) (2024-03-23T15:49:13Z) - Selene: Pioneering Automated Proof in Software Verification [62.09555413263788]
実世界の産業レベルのマイクロカーネルであるseL4をベースとした,最初のプロジェクトレベルの自動証明ベンチマークであるSeleneを紹介する。
GPT-3.5-turbo や GPT-4 のような先進的な大規模言語モデル (LLM) による実験結果から, 自動証明生成領域における LLM の機能を強調した。
論文 参考訳(メタデータ) (2024-01-15T13:08:38Z) - Evasive Hardware Trojan through Adversarial Power Trace [6.949268510101616]
我々は,HT検出をバイパスするためのHT難読化(HTO)手法を提案する。
HTOはASICとFPGA用の1つのトランジスタで実装できる。
適応攻撃者は、スペクトルノイズ予算で設計を制約することで、まだ回避可能なHTOを設計可能であることを示す。
論文 参考訳(メタデータ) (2024-01-04T16:28:15Z) - LLM4EDA: Emerging Progress in Large Language Models for Electronic
Design Automation [74.7163199054881]
大規模言語モデル(LLM)は、文脈理解、論理推論、回答生成においてその能力を実証している。
本稿では,EDA分野におけるLLMの応用に関する系統的研究を行う。
論理合成,物理設計,マルチモーダル特徴抽出,回路のアライメントにLLMを適用することに焦点を当て,今後の研究の方向性を強調した。
論文 参考訳(メタデータ) (2023-12-28T15:09:14Z) - Trojan Playground: A Reinforcement Learning Framework for Hardware Trojan Insertion and Detection [0.0]
現在のハードウェアトロイジャン(HT)検出技術は、主に限られたHTベンチマークに基づいて開発されている。
本稿では,これらの欠点に対処する最初の自動強化学習(RL) HT挿入検出フレームワークを紹介する。
論文 参考訳(メタデータ) (2023-05-16T16:42:07Z) - ATTRITION: Attacking Static Hardware Trojan Detection Techniques Using
Reinforcement Learning [6.87143729255904]
我々は強化学習(RL)を用いた自動でスケーラブルで実用的な攻撃フレームワークATTRITIONを開発した。
ATTRITIONは2つのHT検出カテゴリにわたる8つの検出テクニックを回避し、その挙動を示す。
我々は、ATTRITIONが、広く使われている学術スイートから、オープンソースのMIPSやmor1kxプロセッサ、AESやGPSモジュールなど、より大きな設計まで、さまざまな設計を評価することによって、検出技術を回避する能力を実証する。
論文 参考訳(メタデータ) (2022-08-26T23:47:47Z) - HTLM: Hyper-Text Pre-Training and Prompting of Language Models [52.32659647159799]
大規模なWebクローリングで訓練されたハイパーテキスト言語モデルであるHTLMを紹介する。
単純化したHTML上でのBARTスタイルのデノベーション損失による事前訓練は、広範囲のタスクや監督レベルに対して非常に効果的な転送を可能にすることを示す。
我々は,HTLMに対して,テキストプロンプトが既存のLMに対して行うことよりも,データ効率の面で高い価値を提供することを発見した。
論文 参考訳(メタデータ) (2021-07-14T19:39:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。