論文の概要: SecFSM: Knowledge Graph-Guided Verilog Code Generation for Secure Finite State Machines in Systems-on-Chip
- arxiv url: http://arxiv.org/abs/2508.12910v1
- Date: Mon, 18 Aug 2025 13:18:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.355118
- Title: SecFSM: Knowledge Graph-Guided Verilog Code Generation for Secure Finite State Machines in Systems-on-Chip
- Title(参考訳): SecFSM: システム・オン・チップにおけるセキュア有限状態マシンのための知識グラフガイドによるVerilogコード生成
- Authors: Ziteng Hu, Yingjie Xia, Xiyuan Chen, Li Kuang,
- Abstract要約: SecFSMは、セキュリティ指向の知識グラフを利用して、よりセキュアなVerilogコードを生成するためにLLMをガイドする新しい方法である。
脆弱性を特定するためのユーザの要件を分析し、要件の脆弱性のリストを取得します。次に、脆弱性リストに基づいてFSKGから知識を取得します。最後に、Verilogコード生成のセキュリティ知識に基づいてセキュリティプロンプトを構築します。
- 参考スコア(独自算出の注目度): 7.564898429501228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finite State Machines (FSMs) play a critical role in implementing control logic for Systems-on-Chip (SoC). Traditionally, FSMs are implemented by hardware engineers through Verilog coding, which is often tedious and time-consuming. Recently, with the remarkable progress of Large Language Models (LLMs) in code generation, LLMs have been increasingly explored for automating Verilog code generation. However, LLM-generated Verilog code often suffers from security vulnerabilities, which is particularly concerning for security-sensitive FSM implementations. To address this issue, we propose SecFSM, a novel method that leverages a security-oriented knowledge graph to guide LLMs in generating more secure Verilog code. Specifically, we first construct a FSM Security Knowledge Graph (FSKG) as an external aid to LLMs. Subsequently, we analyze users' requirements to identify vulnerabilities and get a list of vulnerabilities in the requirements. Then, we retrieve knowledge from FSKG based on the vulnerabilities list. Finally, we construct security prompts based on the security knowledge for Verilog code generation. To evaluate SecFSM, we build a dedicated dataset collected from academic datasets, artificial datasets, papers, and industrial cases. Extensive experiments demonstrate that SecFSM outperforms state-of-the-art baselines. In particular, on a benchmark of 25 security test cases evaluated by DeepSeek-R1, SecFSM achieves an outstanding pass rate of 21/25.
- Abstract(参考訳): 有限状態機械(FSM)はシステム・オン・チップ(SoC)の制御ロジックの実装において重要な役割を果たす。
伝統的に、FSMはVerilogコーディングを通じてハードウェアエンジニアによって実装される。
近年、コード生成におけるLLM(Large Language Models)の顕著な進歩に伴い、LLMはVerilogコード生成を自動化するためにますます研究されている。
しかし、LLM生成のVerilogコードはセキュリティ上の脆弱性に悩まされることが多く、特にセキュリティに敏感なFSM実装に関係している。
この問題に対処するため,よりセキュアなVerilogコードを生成するために,セキュリティ指向の知識グラフを活用したSecFSMを提案する。
具体的には、まずFSMセキュリティ知識グラフ(FSKG)をLCMの外部支援として構築する。
その後、脆弱性を特定し、要件内の脆弱性のリストを取得するために、ユーザの要求を分析します。
次に脆弱性リストに基づいてFSKGから知識を検索する。
最後に,Verilogコード生成のセキュリティ知識に基づいてセキュリティプロンプトを構築する。
SecFSMを評価するために、学術データセット、人工データセット、論文、産業ケースから収集された専用のデータセットを構築します。
SecFSMは最先端のベースラインよりも優れています。
特に、DeepSeek-R1で評価された25のセキュリティテストケースのベンチマークでは、SecFSMは21/25という優れたパスレートを達成した。
関連論文リスト
- Are AI-Generated Fixes Secure? Analyzing LLM and Agent Patches on SWE-bench [9.229310642804036]
我々は,SWE-benchデータセットから2万以上の問題を用いて,LLM生成パッチの大規模セキュリティ解析を行った。
スタンドアロンのLCM(Llama 3.3)によるパッチを評価し,開発者によるパッチと比較した。
また、データのサブセットに基づいて、トップパフォーマンスのエージェントフレームワーク(OpenHands、AutoCodeRover、HoneyComb)3つによって生成されたパッチのセキュリティを評価します。
論文 参考訳(メタデータ) (2025-06-30T21:10:19Z) - SafeGenBench: A Benchmark Framework for Security Vulnerability Detection in LLM-Generated Code [7.209766132478914]
LLM生成コードのセキュリティを評価するために特別に設計されたベンチマークであるSafeGenBenchを紹介する。
データセットには、幅広い一般的なソフトウェア開発シナリオと脆弱性タイプが含まれている。
SafeGenBench上での最先端LCMの実証評価を通じて,脆弱性のないコードを生成する能力に重大な欠陥があることを明らかにする。
論文 参考訳(メタデータ) (2025-06-06T02:48:02Z) - VERINA: Benchmarking Verifiable Code Generation [47.9771074559674]
大規模言語モデル(LLM)は、ソフトウェア開発にますます統合されている。
検証可能なコード生成は、この制限に対処するための有望なパスを提供する。
現在のベンチマークでは、エンドツーエンドの検証可能なコード生成がサポートされていないことが多い。
論文 参考訳(メタデータ) (2025-05-29T06:12:52Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - A Comprehensive Study of LLM Secure Code Generation [19.82291066720634]
これまでの研究は主に、生成されたコードの脆弱性を検出するために、単一の静的アナライザであるCodeQLに依存していた。
セキュリティ検査と機能検証の両方を同一生成コードに適用し、これら2つの側面をまとめて評価する。
我々の研究は、既存の技術が多くの場合、生成したコードの機能を損なうことにより、セキュリティが向上することを示した。
論文 参考訳(メタデータ) (2025-03-18T20:12:50Z) - HexaCoder: Secure Code Generation via Oracle-Guided Synthetic Training Data [60.75578581719921]
大規模言語モデル(LLM)は、自動コード生成に大きな可能性を示している。
最近の研究は、多くのLLM生成コードが深刻なセキュリティ脆弱性を含んでいることを強調している。
我々は,LLMがセキュアなコードを生成する能力を高めるための新しいアプローチであるHexaCoderを紹介する。
論文 参考訳(メタデータ) (2024-09-10T12:01:43Z) - CodeAttack: Revealing Safety Generalization Challenges of Large Language Models via Code Completion [117.178835165855]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの新たな、普遍的な安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。