論文の概要: TrojanWhisper: Evaluating Pre-trained LLMs to Detect and Localize Hardware Trojans
- arxiv url: http://arxiv.org/abs/2412.07636v1
- Date: Tue, 10 Dec 2024 16:16:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:37:52.170545
- Title: TrojanWhisper: Evaluating Pre-trained LLMs to Detect and Localize Hardware Trojans
- Title(参考訳): TrojanWhisper: ハードウェアトロイの木馬の検出とローカライズのためのトレーニング済みLLMの評価
- Authors: Md Omar Faruque, Peter Jamieson, Ahmad Patooghy, Abdel-Hameed A. Badawy,
- Abstract要約: 既存のハードウェアトロイの木馬検出法はいくつかの限界に直面している。
LLM(Large Language Models)の出現は、HT検出に有望な新しい方向を提供する。
本稿では,レジスタ転送レベル (RTL) に挿入された各種HTの検出における汎用LLMの可能性について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Existing Hardware Trojans (HT) detection methods face several critical limitations: logic testing struggles with scalability and coverage for large designs, side-channel analysis requires golden reference chips, and formal verification methods suffer from state-space explosion. The emergence of Large Language Models (LLMs) offers a promising new direction for HT detection by leveraging their natural language understanding and reasoning capabilities. For the first time, this paper explores the potential of general-purpose LLMs in detecting various HTs inserted in Register Transfer Level (RTL) designs, including SRAM, AES, and UART modules. We propose a novel tool for this goal that systematically assesses state-of-the-art LLMs (GPT-4o, Gemini 1.5 pro, and Llama 3.1) in detecting HTs without prior fine-tuning. To address potential training data bias, the tool implements perturbation techniques, i.e., variable name obfuscation, and design restructuring, that make the cases more sophisticated for the used LLMs. Our experimental evaluation demonstrates perfect detection rates by GPT-4o and Gemini 1.5 pro in baseline scenarios (100%/100% precision/recall), with both models achieving better trigger line coverage (TLC: 0.82-0.98) than payload line coverage (PLC: 0.32-0.46). Under code perturbation, while Gemini 1.5 pro maintains perfect detection performance (100%/100%), GPT-4o (100%/85.7%) and Llama 3.1 (66.7%/85.7%) show some degradation in detection rates, and all models experience decreased accuracy in localizing both triggers and payloads. This paper validates the potential of LLM approaches for hardware security applications, highlighting areas for future improvement.
- Abstract(参考訳): 既存のハードウェアトロイの木馬検出法(HT)は、大規模設計のスケーラビリティとカバレッジに苦しむロジックテスト、ゴールデンレファレンスチップを必要とするサイドチャネル分析、状態空間の爆発に苦しむ形式的検証方法など、いくつかの重要な制限に直面している。
大規模言語モデル(LLM)の出現は、自然言語の理解と推論機能を活用することで、HT検出に有望な新たな方向性を提供する。
本稿では,SRAM,AES,UARTモジュールなど,レジスタ転送レベル(RTL)設計に挿入されたさまざまなHTを検出するための汎用LLMの可能性について検討する。
本稿では,従来の微調整を伴わないHTの検出において,最先端のLCM(GPT-4o,Gemini 1.5 pro,Llama 3.1)を体系的に評価する新しいツールを提案する。
潜在的なトレーニングデータバイアスに対処するために、このツールは摂動技術、すなわち変数名難読化と設計再構成を実装しており、使用済みLLMのケースをより洗練されたものにしている。
実験により, GPT-4o と Gemini 1.5 Pro によるベースラインシナリオ(100%/100%精度/リコール)の完全検出率を示し, 両モデルともペイロードラインカバレッジ (PLC: 0.32-0.46) よりも優れたトリガラインカバレッジ (TLC: 0.82-0.98) を実現している。
コード摂動下では、ジェミニ1.5プロは完全な検出性能(100%/100%)を維持し、GPT-4o(100%/85.7%)とLlama 3.1(66.7%/85.7%)は検出率の低下を示し、全てのモデルでトリガーとペイロードの両方をローカライズする精度が低下した。
本稿では、ハードウェアセキュリティアプリケーションにおけるLCMアプローチの可能性を検証するとともに、今後の改善の分野を明らかにする。
関連論文リスト
- Iterative Self-Tuning LLMs for Enhanced Jailbreaking Capabilities [63.603861880022954]
本稿では,対戦型LDMをジェイルブレイク能力に富んだ反復的自己調整プロセスであるADV-LLMを紹介する。
我々のフレームワークは,様々なオープンソース LLM 上で ASR を100% 近く達成しながら,逆接接尾辞を生成する計算コストを大幅に削減する。
Llama3のみに最適化されているにもかかわらず、GPT-3.5では99%のASR、GPT-4では49%のASRを達成している。
論文 参考訳(メタデータ) (2024-10-24T06:36:12Z) - Intent Detection in the Age of LLMs [3.755082744150185]
インテント検出はタスク指向対話システム(TODS)の重要な構成要素である
従来のアプローチは、計算効率の良い教師付き文変換器エンコーダモデルに依存していた。
固有の世界知識を持つ生成的大言語モデル(LLM)の出現は、これらの課題に対処する新たな機会を提供する。
論文 参考訳(メタデータ) (2024-10-02T15:01:55Z) - DetToolChain: A New Prompting Paradigm to Unleash Detection Ability of MLLM [81.75988648572347]
DetToolChainはマルチモーダル大言語モデル(MLLM)のゼロショットオブジェクト検出能力を解き放つ新しいパラダイムである。
提案手法は,高精度検出にヒントを得た検出プロンプトツールキットと,これらのプロンプトを実装するための新しいChain-of-Thoughtから構成される。
DetToolChainを用いたGPT-4Vは,オープン語彙検出のための新しいクラスセットにおいて,最先端のオブジェクト検出器を+21.5%AP50で改善することを示す。
論文 参考訳(メタデータ) (2024-03-19T06:54:33Z) - Gradient Cuff: Detecting Jailbreak Attacks on Large Language Models by Exploring Refusal Loss Landscapes [61.916827858666906]
大規模言語モデル(LLM)は、ユーザがクエリを入力し、LLMが回答を生成する、顕著な生成AIツールになりつつある。
害と誤用を減らすため、人間のフィードバックからの強化学習のような高度な訓練技術を用いて、これらのLLMを人間の価値に合わせる努力がなされている。
近年の研究では、組込み安全ガードレールを転覆させようとする敵のジェイルブレイクの試みに対するLLMの脆弱性を強調している。
本稿では,脱獄を検知するGradient Cuffという手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T03:29:54Z) - Game of Trojans: Adaptive Adversaries Against Output-based
Trojaned-Model Detectors [11.825974900783844]
我々は、Trojaned DNNを再訓練し、SOTA出力に基づくTrojanedモデル検出器を認識した適応逆解析を行う。
このような敵は,(1) トリガー埋め込みとクリーンなサンプルの両方において高い精度を確保でき,(2) バイパス検出が可能であることを示す。
論文 参考訳(メタデータ) (2024-02-12T20:14:46Z) - Understanding the Effectiveness of Large Language Models in Detecting Security Vulnerabilities [12.82645410161464]
5つの異なるセキュリティデータセットから5,000のコードサンプルに対して、16の事前学習された大規模言語モデルの有効性を評価する。
全体として、LSMは脆弱性の検出において最も穏やかな効果を示し、データセットの平均精度は62.8%、F1スコアは0.71である。
ステップバイステップ分析を含む高度なプロンプト戦略は、F1スコア(平均0.18まで)で実世界のデータセット上でのLLMのパフォーマンスを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-11-16T13:17:20Z) - Zero-Shot Detection of Machine-Generated Codes [83.0342513054389]
本研究は,LLMの生成したコードを検出するためのトレーニング不要な手法を提案する。
既存のトレーニングベースまたはゼロショットテキスト検出装置は、コード検出に効果がないことがわかった。
本手法は,リビジョン攻撃に対する堅牢性を示し,Javaコードによく適応する。
論文 参考訳(メタデータ) (2023-10-08T10:08:21Z) - Large Language Models for Test-Free Fault Localization [11.080712737595174]
テストカバレッジ情報なしでバグの行を特定できる言語モデルに基づくフォールトローカライズ手法を提案する。
5億5000万、60億、160億のパラメータを持つ言語モデルを、手作業でキュレートされた小さなプログラムコーパスで微調整します。
実験により、LLMAOは最先端の機械学習フォールトローカライゼーション(MLFL)ベースラインを2.3%-54.4%改善し、トップ5の結果を14.4%-35.6%改善した。
論文 参考訳(メタデータ) (2023-10-03T01:26:39Z) - DetectGPT: Zero-Shot Machine-Generated Text Detection using Probability
Curvature [143.5381108333212]
大規模な言語モデルからサンプリングされたテキストは、モデルのログ確率関数の負の曲率領域を占有する傾向にあることを示す。
次に、与えられたLLMから通路が生成されるかどうかを判断するための新しい曲率ベースの基準を定義する。
我々は、モデルサンプル検出のための既存のゼロショット法よりもディテクターGPTの方が識別性が高いことを発見した。
論文 参考訳(メタデータ) (2023-01-26T18:44:06Z) - Efficient Decoder-free Object Detection with Transformers [75.00499377197475]
視覚変換器(ViT)は、物体検出アプローチのランドスケープを変化させている。
本稿では,デコーダフリー完全トランス(DFFT)オブジェクト検出器を提案する。
DFFT_SMALLは、トレーニングおよび推論段階で高い効率を達成する。
論文 参考訳(メタデータ) (2022-06-14T13:22:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。