論文の概要: VeriGRAG: Enhancing LLM-Based Verilog Code Generation with Structure-Aware Soft Prompts
- arxiv url: http://arxiv.org/abs/2510.15914v1
- Date: Sat, 27 Sep 2025 10:23:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-26 16:57:26.441466
- Title: VeriGRAG: Enhancing LLM-Based Verilog Code Generation with Structure-Aware Soft Prompts
- Title(参考訳): VeriGRAG: 構造対応ソフトプロンプトによるLLMベースのVerilogコード生成の強化
- Authors: Jiayu Zhao, Song Chen,
- Abstract要約: グラフニューラルネットワーク(GNN)を用いたVerilogコードから構造グラフ埋め込みを抽出する新しいフレームワークを提案する。
マルチモーダルレトリバーは、与えられた生成タスクに最も関係のあるグラフ埋め込みを選択する。
実験により、VeriGRAGはVerilogコード生成の正確性を大幅に改善することが示された。
- 参考スコア(独自算出の注目度): 4.227182480042518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated strong capabilities in generating Verilog code from natural language descriptions. However, Verilog code inherently encodes structural information of hardware circuits. Effectively leveraging this structural information to enhance the functional and syntactic correctness of LLM-generated Verilog code remains a significant challenge. To address this challenge, we propose VeriGRAG , a novel framework that extracts structural graph embeddings from Verilog code using graph neural networks (GNNs). A multimodal retriever then selects the graph embeddings most relevant to the given generation task, which are aligned with the code modality through the VeriFormer module to generate structure-aware soft prompts. Our experiments demonstrate that VeriGRAG substantially improves the correctness of Verilog code generation, achieving state-of-the-art or superior performance across both VerilogEval and RTLLM benchmarks.
- Abstract(参考訳): 大規模言語モデル(LLM)は、自然言語記述からVerilogコードを生成する強力な能力を示している。
しかし、Verilogのコードは本質的にハードウェア回路の構造情報を符号化している。
LLM生成したVerilogコードの機能的および構文的正しさを高めるために、この構造情報を効果的に活用することは、依然として大きな課題である。
この課題に対処するため、我々は、グラフニューラルネットワーク(GNN)を用いてVerilogコードから構造グラフ埋め込みを抽出する新しいフレームワークであるVeriGRAGを提案する。
マルチモーダルレトリバーは、与えられた生成タスクに最も関連があるグラフを選択し、VeriFormerモジュールを通してコードモダリティと整合して構造対応のソフトプロンプトを生成する。
実験の結果,VeriGRAGはVerilogコード生成の正確性を大幅に向上し,VerilogEvalベンチマークとRTLLMベンチマークの両方で最先端あるいは優れた性能を実現していることがわかった。
関連論文リスト
- HiVeGen -- Hierarchical LLM-based Verilog Generation for Scalable Chip Design [24.46771930751068]
HiVeGenは階層的なVerilog生成フレームワークで、生成タスクを階層的なサブモジュールに分解する。
自動設計空間探索(DSE)を階層対応のプロンプト生成に変換し、コードの再利用を強化するために重みに基づく検索を導入する。
エラー補正コストを低減し、生成した設計の質を大幅に向上させる。
論文 参考訳(メタデータ) (2024-12-06T19:37:53Z) - Large Language Model for Verilog Generation with Code-Structure-Guided Reinforcement Learning [29.135207235743795]
本稿では、強化学習によって強化されたLLMであるVeriSeekを紹介し、高いVerilogコード生成性能を実現する。
我々の強化学習アプローチでは、事前学習されたモデルを洗練するためのフィードバック信号として、コード構造情報を用いる。
実験によると、VeriSeekは複数のベンチマークで最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-07-21T11:25:21Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
CodeGRAGは、制御フローとそれらのデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミングドメインの知識をよりよく解釈する。
CodeGRAGはLLMのコード生成能力を大幅に改善し、言語間コード生成のパフォーマンス向上も実現している。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - A Multi-Expert Large Language Model Architecture for Verilog Code Generation [5.159745269633967]
本稿では,Verilog Code Generation (MEV-LLM) のための,革新的なマルチエキスパート LLM アーキテクチャを提案する。
我々のアーキテクチャは、複数のLCMを一意に統合しており、それぞれが、異なるレベルの設計複雑さに対して分類されたデータセットで微調整されている。
実験から得られた実証的な証拠は、構文的に、機能的に正しい生成したVerilog出力の比率において顕著な改善点を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-04-11T16:58:29Z) - Data is all you need: Finetuning LLMs for Chip Design via an Automated design-data augmentation framework [50.02710905062184]
本稿では,Verilog と EDA スクリプトに適合する高ボリュームかつ高品質な自然言語を生成する自動設計データ拡張フレームワークを提案する。
Verilog生成の精度は現在の最先端のオープンソースVerilog生成モデルを超え、同じベンチマークで58.8%から70.6%に増加した。
論文 参考訳(メタデータ) (2024-03-17T13:01:03Z) - VerilogEval: Evaluating Large Language Models for Verilog Code
Generation [6.88526119890374]
本稿では,VerilogインストラクショナルWebサイトHDLBitsの156問題からなる総合評価データセットを提案する。
評価セットは、単純な組合せ回路から複雑な有限状態マシンまで、様々なVerilogコード生成タスクからなる。
論文 参考訳(メタデータ) (2023-09-14T09:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。