論文の概要: MARVEL: Multi-Agent RTL Vulnerability Extraction using Large Language Models
- arxiv url: http://arxiv.org/abs/2505.11963v2
- Date: Mon, 09 Jun 2025 01:58:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:46.984932
- Title: MARVEL: Multi-Agent RTL Vulnerability Extraction using Large Language Models
- Title(参考訳): MARVEL:大規模言語モデルを用いたマルチエージェントRTL脆弱性抽出
- Authors: Luca Collini, Baleegh Ahmad, Joey Ah-kiow, Ramesh Karri,
- Abstract要約: 大きな言語モデル(LLM)は、このタスクの間、直接または既存のツールと連携するために使われてきた。
我々は、意思決定、ツールの使用、推論に対する統一的なアプローチのためのマルチエージェントLLMフレームワークであるMARVELを提案する。
- 参考スコア(独自算出の注目度): 15.35860248847857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hardware security verification is a challenging and time-consuming task. For this purpose, design engineers may utilize tools such as formal verification, linters, and functional simulation tests, coupled with analysis and a deep understanding of the hardware design being inspected. Large Language Models (LLMs) have been used to assist during this task, either directly or in conjunction with existing tools. We improve the state of the art by proposing MARVEL, a multi-agent LLM framework for a unified approach to decision-making, tool use, and reasoning. MARVEL mimics the cognitive process of a designer looking for security vulnerabilities in RTL code. It consists of a supervisor agent that devises the security policy of the system-on-chips (SoCs) using its security documentation. It delegates tasks to validate the security policy to individual executor agents. Each executor agent carries out its assigned task using a particular strategy. Each executor agent may use one or more tools to identify potential security bugs in the design and send the results back to the supervisor agent for further analysis and confirmation. MARVEL includes executor agents that leverage formal tools, linters, simulation tests, LLM-based detection schemes, and static analysis-based checks. We test our approach on a known buggy SoC based on OpenTitan from the Hack@DATE competition. We find that 20 of the 48 issues reported by MARVEL pose security vulnerabilities.
- Abstract(参考訳): ハードウェアのセキュリティ検証は困難で時間を要する作業だ。
この目的のために、設計技術者は、正式な検証、リンタ、機能シミュレーションテストなどのツールを、分析と検査対象のハードウェア設計の深い理解と組み合わせて利用することができる。
大きな言語モデル(LLM)は、このタスクの間、直接または既存のツールと連携するために使われてきた。
我々は、意思決定、ツールの使用、推論に対する統一的なアプローチのためのマルチエージェントLLMフレームワークであるMARVELを提案することにより、最先端技術の改善を図る。
MARVELは、RTLコードのセキュリティ脆弱性を探しているデザイナの認知プロセスを模倣する。
システム・オン・チップ(SoC)のセキュリティポリシーを設計するスーパーバイザエージェントで構成されている。
個々の執行機関に対して、セキュリティポリシーを検証するタスクを委譲する。
各実行エージェントは、特定の戦略を使用して割り当てられたタスクを実行する。
各実行エージェントは1つ以上のツールを使用して、設計における潜在的なセキュリティバグを特定し、結果を監督エージェントに送信してさらなる分析と確認を行うことができる。
MARVELには、フォーマルなツール、リンタ、シミュレーションテスト、LLMベースの検出スキーム、静的解析ベースのチェックを利用するエグゼクタエージェントが含まれている。
私たちは、Hack@DATEコンペティションのOpenTitanをベースにした、既知のバグだらけのSoCで、私たちのアプローチを試しています。
MARVELが報告した48件のうち20件が、セキュリティ上の脆弱性であることがわかった。
関連論文リスト
- Automating Prompt Leakage Attacks on Large Language Models Using Agentic Approach [9.483655213280738]
本稿では,大規模言語モデル(LLM)の安全性を評価するための新しいアプローチを提案する。
我々は、プロンプトリークをLLMデプロイメントの安全性にとって重要な脅威と定義する。
我々は,協調エージェントが目的のLLMを探索・活用し,そのプロンプトを抽出するマルチエージェントシステムを実装した。
論文 参考訳(メタデータ) (2025-02-18T08:17:32Z) - AgentGuard: Repurposing Agentic Orchestrator for Safety Evaluation of Tool Orchestration [0.3222802562733787]
AgentGuardは、安全でないツールの使用を自律的に発見し、検証するフレームワークである。
エージェントの動作を限定する安全制約を生成し、安全保証の基準を達成する。
フレームワークは、安全でないことを識別し、実際の実行でそれらを検証し、安全性の制約を生成し、制約の有効性を検証する。
論文 参考訳(メタデータ) (2025-02-13T23:00:33Z) - AgentHarm: A Benchmark for Measuring Harmfulness of LLM Agents [84.96249955105777]
LLMエージェントは誤用された場合、より大きなリスクを引き起こすが、その堅牢性は未発見のままである。
我々は, LLMエージェント誤用の研究を容易にするために, AgentHarmと呼ばれる新しいベンチマークを提案する。
主要なLLMは、ジェイルブレイクなしで悪意のあるエージェント要求に驚くほど準拠している。
論文 参考訳(メタデータ) (2024-10-11T17:39:22Z) - AutoSafeCoder: A Multi-Agent Framework for Securing LLM Code Generation through Static Analysis and Fuzz Testing [6.334110674473677]
既存のアプローチは、セキュアで脆弱性のないコードを生成するのに苦労するコード生成に、単一のエージェントに依存することが多い。
コード生成,脆弱性解析,セキュリティ強化にLLM駆動エージェントを活用するマルチエージェントフレームワークであるAutoSafeCoderを提案する。
私たちのコントリビューションは、コード生成中に反復的なプロセスで動的および静的なテストを統合することで、マルチエージェントコード生成の安全性を確保することに焦点を当てています。
論文 参考訳(メタデータ) (2024-09-16T21:15:56Z) - GuardAgent: Safeguard LLM Agents by a Guard Agent via Knowledge-Enabled Reasoning [79.07152553060601]
安全ガード要求を満たすか否かを動的に確認し,目標エージェントを保護する最初のガードレールエージェントであるガードアジェントを提案する。
特にGuardAgentは、まず安全ガードの要求を分析してタスクプランを生成し、それからその計画をガードレールコードにマップして実行します。
GuardAgentは,98%,83%以上のガードレールアキュラシーを有する2つのベンチマークにおいて,異なる種類のエージェントに対する違反行為を効果的に抑制することを示した。
論文 参考訳(メタデータ) (2024-06-13T14:49:26Z) - Watch Out for Your Agents! Investigating Backdoor Threats to LLM-Based Agents [47.219047422240145]
我々は、LSMベースのエージェントに対して、典型的な安全脅威であるバックドアアタックの1つを調査する第一歩を踏み出した。
具体的には、ユーザ入力とモデル出力のみを操作できる従来のLDMに対するバックドア攻撃と比較して、エージェントバックドア攻撃はより多様で隠蔽的な形式を示す。
論文 参考訳(メタデータ) (2024-02-17T06:48:45Z) - A Preliminary Study on Using Large Language Models in Software
Pentesting [2.0551676463612636]
大規模言語モデル(LLM)は、セキュリティタスクを自動化するための有望な可能性を提供すると考えられている。
ソフトウェアペンテスティングにおけるLLMの使用について検討し,ソースコード中のソフトウェアセキュリティ脆弱性を自動的に識別する作業を行う。
論文 参考訳(メタデータ) (2024-01-30T21:42:59Z) - A Novel Approach to Identify Security Controls in Source Code [4.598579706242066]
本稿では,一般的なセキュリティ制御の包括的リストを列挙し,それぞれにデータセットを作成する。
最新のNLP技術であるBERT(Bidirectional Representations from Transformers)とTactic Detector(Tactic Detector)を使って、セキュリティコントロールを高い信頼性で識別できることを示しています。
論文 参考訳(メタデータ) (2023-07-10T21:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。