論文の概要: ThreatLens: LLM-guided Threat Modeling and Test Plan Generation for Hardware Security Verification
- arxiv url: http://arxiv.org/abs/2505.06821v1
- Date: Sun, 11 May 2025 03:10:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.055412
- Title: ThreatLens: LLM-guided Threat Modeling and Test Plan Generation for Hardware Security Verification
- Title(参考訳): ThreatLens: LLM誘導型脅威モデリングとハードウェアセキュリティ検証のためのテスト計画生成
- Authors: Dipayan Saha, Hasan Al Shaikh, Shams Tarek, Farimah Farahmandi,
- Abstract要約: ThreatLensは、ハードウェアセキュリティ検証のためのセキュリティ脅威モデリングとテストプラン生成を自動化するマルチエージェントフレームワークである。
このフレームワークは手動検証の労力を削減し、カバレッジを高め、セキュリティ検証に対する構造化された適応可能なアプローチを保証する。
- 参考スコア(独自算出の注目度): 1.0816123715383426
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current hardware security verification processes predominantly rely on manual threat modeling and test plan generation, which are labor-intensive, error-prone, and struggle to scale with increasing design complexity and evolving attack methodologies. To address these challenges, we propose ThreatLens, an LLM-driven multi-agent framework that automates security threat modeling and test plan generation for hardware security verification. ThreatLens integrates retrieval-augmented generation (RAG) to extract relevant security knowledge, LLM-powered reasoning for threat assessment, and interactive user feedback to ensure the generation of practical test plans. By automating these processes, the framework reduces the manual verification effort, enhances coverage, and ensures a structured, adaptable approach to security verification. We evaluated our framework on the NEORV32 SoC, demonstrating its capability to automate security verification through structured test plans and validating its effectiveness in real-world scenarios.
- Abstract(参考訳): 現在のハードウェアセキュリティ検証プロセスは、主に手動の脅威モデリングとテストプラン生成に頼っている。
これらの課題に対処するため,ハードウェアセキュリティ検証のためのセキュリティ脅威モデリングとテスト計画生成を自動化するLLM駆動型マルチエージェントフレームワークであるThreatLensを提案する。
ThreatLensは、検索強化世代(RAG)を統合して、関連するセキュリティ知識の抽出、LLMによる脅威評価の推論、実用的なテスト計画の生成を保証するインタラクティブなユーザフィードバックを実現している。
これらのプロセスを自動化することで、このフレームワークは手動検証の労力を削減し、カバレッジを高め、セキュリティ検証に対する構造化された適応可能なアプローチを保証する。
我々はNEORV32 SoCの枠組みを評価し、構造化テスト計画によるセキュリティ検証を自動化し、実世界のシナリオにおける有効性を検証する能力を示した。
関連論文リスト
- Engineering Risk-Aware, Security-by-Design Frameworks for Assurance of Large-Scale Autonomous AI Models [0.0]
本稿では,大規模自律型AIシステムを対象とした企業レベルのリスク認識型セキュリティ・バイ・デザイン手法を提案する。
敵的および運用的ストレス下でのモデル動作の証明可能な保証を提供する統一パイプラインについて詳述する。
国家安全保障、オープンソースモデルガバナンス、産業自動化におけるケーススタディは、脆弱性とコンプライアンスのオーバーヘッドの計測可能な削減を実証している。
論文 参考訳(メタデータ) (2025-05-09T20:14:53Z) - Exposing the Ghost in the Transformer: Abnormal Detection for Large Language Models via Hidden State Forensics [5.384257830522198]
重要なアプリケーションにおける大規模言語モデル(LLM)は、重大な信頼性とセキュリティリスクを導入している。
これらの脆弱性は悪意あるアクターによって武器化され、不正アクセス、広範囲にわたる誤報、システムの完全性を侵害した。
本研究では,LLMの異常な挙動を隠蔽法で検出する手法を提案する。
論文 参考訳(メタデータ) (2025-04-01T05:58:14Z) - Tit-for-Tat: Safeguarding Large Vision-Language Models Against Jailbreak Attacks via Adversarial Defense [90.71884758066042]
大きな視覚言語モデル(LVLM)は、視覚入力による悪意のある攻撃に対する感受性という、ユニークな脆弱性を導入している。
本稿では,脆弱性発生源からアクティブ防衛機構へ視覚空間を変換するための新しい手法であるESIIIを提案する。
論文 参考訳(メタデータ) (2025-03-14T17:39:45Z) - RAG for Effective Supply Chain Security Questionnaire Automation [6.195947083911995]
本稿では,自然言語処理(NLP)と検索拡張生成(RAG)を用いた新しい手法を提案する。
我々は,大規模言語モデル(LLM)と高度な検索システムを統合することで,多様な文書形式を解釈し,正確な応答を生成するシステムであるQuestSecureを開発した。
論文 参考訳(メタデータ) (2024-12-18T16:07:32Z) - Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - SCANS: Mitigating the Exaggerated Safety for LLMs via Safety-Conscious Activation Steering [56.92068213969036]
悪意のある命令から脅威を守るために、LLM(Large Language Models)には安全アライメントが不可欠である。
近年の研究では、過大な安全性の問題により、安全性に配慮したLCMは、良質な問い合わせを拒否する傾向にあることが明らかになっている。
過大な安全性の懸念を和らげるために,SCANS法を提案する。
論文 参考訳(メタデータ) (2024-08-21T10:01:34Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Threat Modelling and Risk Analysis for Large Language Model (LLM)-Powered Applications [0.0]
大規模言語モデル(LLM)は、高度な自然言語処理機能を提供することによって、様々なアプリケーションに革命をもたらした。
本稿では,LSMを利用したアプリケーションに適した脅威モデリングとリスク分析について検討する。
論文 参考訳(メタデータ) (2024-06-16T16:43:58Z) - Evolutionary Large Language Models for Hardware Security: A Comparative Survey [0.4642370358223669]
本研究では,レジスタ転送レベル(RTL)設計におけるLLM(Large Language Models)統合の種について検討する。
LLMは、HW設計に固有のセキュリティ関連脆弱性を自動的に修正するために利用することができる。
論文 参考訳(メタデータ) (2024-04-25T14:42:12Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。