論文の概要: LAsset: An LLM-assisted Security Asset Identification Framework for System-on-Chip (SoC) Verification
- arxiv url: http://arxiv.org/abs/2601.02624v1
- Date: Tue, 06 Jan 2026 00:53:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.756733
- Title: LAsset: An LLM-assisted Security Asset Identification Framework for System-on-Chip (SoC) Verification
- Title(参考訳): LAsset:System-on-Chip(SoC)検証のためのLLM支援セキュリティアセット識別フレームワーク
- Authors: Md Ajoad Hasan, Dipayan Saha, Khan Thamid Hasan, Nashmin Alam, Azim Uddin, Sujan Kumar Saha, Mark Tehranipoor, Farimah Farahmandi,
- Abstract要約: LAssetは、ハードウェア設計仕様とレジスタ転送レベル(RTL)記述の両方からセキュリティ資産を識別する新しいフレームワークである。
分類精度が高く、システム・オン・チップ(SoC)設計では最大90%のリコール率、IP設計では93%のリコール率に達する。
- 参考スコア(独自算出の注目度): 1.7639836127386677
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing complexity of modern system-on-chip (SoC) and IP designs is making security assurance difficult day by day. One of the fundamental steps in the pre-silicon security verification of a hardware design is the identification of security assets, as it substantially influences downstream security verification tasks, such as threat modeling, security property generation, and vulnerability detection. Traditionally, assets are determined manually by security experts, requiring significant time and expertise. To address this challenge, we present LAsset, a novel automated framework that leverages large language models (LLMs) to identify security assets from both hardware design specifications and register-transfer level (RTL) descriptions. The framework performs structural and semantic analysis to identify intra-module primary and secondary assets and derives inter-module relationships to systematically characterize security dependencies at the design level. Experimental results show that the proposed framework achieves high classification accuracy, reaching up to 90% recall rate in SoC design, and 93% recall rate in IP designs. This automation in asset identification significantly reduces manual overhead and supports a scalable path forward for secure hardware development.
- Abstract(参考訳): 現代のシステムオンチップ(SoC)とIP設計の複雑さは増し、セキュリティ保証を日々困難にしている。
ハードウェア設計におけるプレシリコンセキュリティ検証の基本的なステップの1つは、脅威モデリング、セキュリティプロパティ生成、脆弱性検出などの下流セキュリティ検証タスクに大きく影響するため、セキュリティ資産の識別である。
伝統的に、資産はセキュリティの専門家によって手動で決定され、かなりの時間と専門知識を必要とする。
ハードウェア設計仕様とレジスタ・トランスファーレベル(RTL)記述の両方からセキュリティ資産を識別するために,大規模言語モデル(LLM)を活用する,新たな自動化フレームワークであるLAssetを提案する。
このフレームワークは、モジュール内プライマリおよびセカンダリアセットを識別するための構造的および意味分析を行い、モジュール間関係を導出し、設計レベルでのセキュリティ依存関係を体系的に特徴づける。
実験の結果,提案手法は分類精度が高く,SoC設計では最大90%のリコール率,IP設計では93%のリコール率を達成した。
このアセット識別の自動化は、手動のオーバーヘッドを大幅に減らし、セキュアなハードウェア開発のためのスケーラブルなパスをサポートする。
関連論文リスト
- Breaking Agent Backbones: Evaluating the Security of Backbone LLMs in AI Agents [36.2255033141489]
大規模言語モデル(LLM)を利用したAIエージェントが大規模にデプロイされているが、バックボーンLLMの選択がエージェントのセキュリティに与える影響について、体系的な理解が欠如している。
脅威スナップショット: 脆弱性が現れるエージェントの実行フロー内の特定の状態を分離するフレームワーク。
194331のユニークなクラウドソース攻撃に基づくセキュリティベンチマークである$operatornameb3$ベンチマークを構築するために,このフレームワークを適用した。
論文 参考訳(メタデータ) (2025-10-26T10:36:42Z) - SafeEvalAgent: Toward Agentic and Self-Evolving Safety Evaluation of LLMs [37.82193156438782]
本稿では, エージェント安全評価の新しいパラダイムとして, 継続的かつ自己進化的なプロセスとしてのリフレーミング評価を提案する。
本稿では、構造化されていないポリシー文書を自律的に取り込み、包括的な安全ベンチマークを生成し、永続的に進化させる、新しいマルチエージェントフレームワークSafeEvalAgentを提案する。
本実験はSafeEvalAgentの有効性を実証し,評価が強まるにつれてモデルの安全性が一貫した低下を示す。
論文 参考訳(メタデータ) (2025-09-30T11:20:41Z) - A.S.E: A Repository-Level Benchmark for Evaluating Security in AI-Generated Code [49.009041488527544]
A.S.Eは、AI生成コードのセキュリティを評価するためのリポジトリレベルの評価ベンチマークである。
現在の大規模言語モデル(LLM)は、セキュアなコーディングに苦戦している。
大きな推論予算は、必ずしもより良いコード生成につながるとは限らない。
論文 参考訳(メタデータ) (2025-08-25T15:11:11Z) - Security Enclave Architecture for Heterogeneous Security Primitives for Supply-Chain Attacks [7.9837065464150685]
本稿では,複数の攻撃ベクトルに対処可能な統一セキュリティアーキテクチャを構築する際に発生する障害の範囲について検討する。
様々なASIC技術におけるシリコン領域と電力消費への影響を徹底的に評価する。
論文 参考訳(メタデータ) (2025-07-15T04:28:02Z) - A Survey on Autonomy-Induced Security Risks in Large Model-Based Agents [45.53643260046778]
大規模言語モデル(LLM)の最近の進歩は、自律型AIエージェントの台頭を触媒している。
これらの大きなモデルエージェントは、静的推論システムからインタラクティブなメモリ拡張エンティティへのパラダイムシフトを示す。
論文 参考訳(メタデータ) (2025-06-30T13:34:34Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - BugWhisperer: Fine-Tuning LLMs for SoC Hardware Vulnerability Detection [1.0816123715383426]
本稿では,システムオンチップ(SoC)セキュリティ検証の課題を解決するために,BugWhispererという新しいフレームワークを提案する。
我々は、SoCのセキュリティ脆弱性を検出するために特別に設計された、オープンソースで微調整されたLarge Language Model (LLM)を紹介する。
論文 参考訳(メタデータ) (2025-05-28T21:25:06Z) - ThreatLens: LLM-guided Threat Modeling and Test Plan Generation for Hardware Security Verification [1.0816123715383426]
ThreatLensは、ハードウェアセキュリティ検証のためのセキュリティ脅威モデリングとテストプラン生成を自動化するマルチエージェントフレームワークである。
このフレームワークは手動検証の労力を削減し、カバレッジを高め、セキュリティ検証に対する構造化された適応可能なアプローチを保証する。
論文 参考訳(メタデータ) (2025-05-11T03:10:39Z) - Toward Automated Potential Primary Asset Identification in Verilog Designs [4.526103806673449]
設計におけるセキュリティ資産を知ることは、下流のセキュリティ分析に不可欠である。
本稿では,Verilog設計における潜在的なセキュリティ資産を初期識別する自動化手法を提案する。
論文 参考訳(メタデータ) (2025-02-07T04:17:25Z) - SeCodePLT: A Unified Platform for Evaluating the Security of Code GenAI [58.29510889419971]
コード生成大型言語モデル(LLM)のセキュリティリスクと能力を評価するための既存のベンチマークは、いくつかの重要な制限に直面している。
手動で検証し、高品質なシード例から始める、汎用的でスケーラブルなベンチマーク構築フレームワークを導入し、ターゲット突然変異を通じて拡張する。
このフレームワークをPython、C/C++、Javaに適用すると、44のCWEベースのリスクカテゴリと3つのセキュリティ機能にまたがる5.9k以上のサンプルデータセットであるSeCodePLTが構築されます。
論文 参考訳(メタデータ) (2024-10-14T21:17:22Z) - Evolutionary Large Language Models for Hardware Security: A Comparative Survey [0.4642370358223669]
本研究では,レジスタ転送レベル(RTL)設計におけるLLM(Large Language Models)統合の種について検討する。
LLMは、HW設計に固有のセキュリティ関連脆弱性を自動的に修正するために利用することができる。
論文 参考訳(メタデータ) (2024-04-25T14:42:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。