論文の概要: VeriGRAG: Enhancing LLM-Based Verilog Code Generation with Structure-Aware Soft Prompts
- arxiv url: http://arxiv.org/abs/2510.15914v1
- Date: Sat, 27 Sep 2025 10:23:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-26 16:57:26.441466
- Title: VeriGRAG: Enhancing LLM-Based Verilog Code Generation with Structure-Aware Soft Prompts
- Title(参考訳): VeriGRAG: 構造対応ソフトプロンプトによるLLMベースのVerilogコード生成の強化
- Authors: Jiayu Zhao, Song Chen,
- Abstract要約: グラフニューラルネットワーク(GNN)を用いたVerilogコードから構造グラフ埋め込みを抽出する新しいフレームワークを提案する。
マルチモーダルレトリバーは、与えられた生成タスクに最も関係のあるグラフ埋め込みを選択する。
実験により、VeriGRAGはVerilogコード生成の正確性を大幅に改善することが示された。
- 参考スコア(独自算出の注目度): 4.227182480042518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated strong capabilities in generating Verilog code from natural language descriptions. However, Verilog code inherently encodes structural information of hardware circuits. Effectively leveraging this structural information to enhance the functional and syntactic correctness of LLM-generated Verilog code remains a significant challenge. To address this challenge, we propose VeriGRAG , a novel framework that extracts structural graph embeddings from Verilog code using graph neural networks (GNNs). A multimodal retriever then selects the graph embeddings most relevant to the given generation task, which are aligned with the code modality through the VeriFormer module to generate structure-aware soft prompts. Our experiments demonstrate that VeriGRAG substantially improves the correctness of Verilog code generation, achieving state-of-the-art or superior performance across both VerilogEval and RTLLM benchmarks.
- Abstract(参考訳): 大規模言語モデル(LLM)は、自然言語記述からVerilogコードを生成する強力な能力を示している。
しかし、Verilogのコードは本質的にハードウェア回路の構造情報を符号化している。
LLM生成したVerilogコードの機能的および構文的正しさを高めるために、この構造情報を効果的に活用することは、依然として大きな課題である。
この課題に対処するため、我々は、グラフニューラルネットワーク(GNN)を用いてVerilogコードから構造グラフ埋め込みを抽出する新しいフレームワークであるVeriGRAGを提案する。
マルチモーダルレトリバーは、与えられた生成タスクに最も関連があるグラフを選択し、VeriFormerモジュールを通してコードモダリティと整合して構造対応のソフトプロンプトを生成する。
実験の結果,VeriGRAGはVerilogコード生成の正確性を大幅に向上し,VerilogEvalベンチマークとRTLLMベンチマークの両方で最先端あるいは優れた性能を実現していることがわかった。
関連論文リスト
- QiMeng-CRUX: Narrowing the Gap between Natural Language and Verilog via Core Refined Understanding eXpression [48.84841760215598]
大規模言語モデル(LLM)はハードウェア記述言語(HDL)生成において有望な能力を示している。
既存のアプローチは、しばしば曖昧で冗長で構造化されていない自由形式の自然言語記述に依存している。
我々は、ハードウェアコード生成を、オープンな自然言語空間からドメイン固有の高度に制約されたターゲット空間への複雑な変換として扱う。
構造化された中間空間であるCore Refined Understanding eXpression (CRUX)を導入し、ユーザの意図の本質的な意味を捉えながら、正確なVerilogコード生成のための式を整理する。
論文 参考訳(メタデータ) (2025-11-25T09:17:32Z) - QiMeng-SALV: Signal-Aware Learning for Verilog Code Generation [47.82802346420197]
我々は,Verilogコード生成のための信号認識学習(QiMeng-SALV)を提案する。
トレーニングデータにおける参照モジュールの機能的正当性を,参照モジュールの機能的正当性と比較することにより検証する。
最後に,信号レベル符号セグメントに最適化された信号認識型DPOを提案する。
論文 参考訳(メタデータ) (2025-10-22T06:58:07Z) - CodeRAG: Supportive Code Retrieval on Bigraph for Real-World Code Generation [69.684886175768]
大規模言語モデル(LLM)は、自動コード生成において有望なパフォーマンスを示している。
本稿では,検索拡張コード生成フレームワークであるCodeRAGを提案する。
実験によると、CodeRAGはRAGのシナリオと比較して大幅に改善されている。
論文 参考訳(メタデータ) (2025-04-14T09:51:23Z) - Code to Think, Think to Code: A Survey on Code-Enhanced Reasoning and Reasoning-Driven Code Intelligence in LLMs [53.00384299879513]
大規模言語モデル(LLM)では、コードと推論が互いに強化される。
コードは検証可能な実行パスを提供し、論理的な分解を強制し、実行時の検証を可能にする。
我々は,このシナジーを強化するために,重要な課題を特定し,今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2025-02-26T18:55:42Z) - DeepRTL: Bridging Verilog Understanding and Generation with a Unified Representation Model [13.532046953850902]
We present DeepRTL, a unified representation model that is excs in both Verilog understanding and generation。
CodeT5+に基づいて、DeepRTLは、Verilogコードをリッチでマルチレベルな自然言語記述と整合させる包括的なデータセットに基づいて微調整されている。
我々はVerilog理解のための最初のベンチマークを導入し、埋め込み類似性とGPTスコアを適用してモデルの理解能力を評価する。
論文 参考訳(メタデータ) (2025-02-20T11:07:55Z) - HiVeGen -- Hierarchical LLM-based Verilog Generation for Scalable Chip Design [24.46771930751068]
HiVeGenは階層的なVerilog生成フレームワークで、生成タスクを階層的なサブモジュールに分解する。
自動設計空間探索(DSE)を階層対応のプロンプト生成に変換し、コードの再利用を強化するために重みに基づく検索を導入する。
エラー補正コストを低減し、生成した設計の質を大幅に向上させる。
論文 参考訳(メタデータ) (2024-12-06T19:37:53Z) - Large Language Model for Verilog Generation with Code-Structure-Guided Reinforcement Learning [29.135207235743795]
本稿では、強化学習によって強化されたLLMであるVeriSeekを紹介し、高いVerilogコード生成性能を実現する。
我々の強化学習アプローチでは、事前学習されたモデルを洗練するためのフィードバック信号として、コード構造情報を用いる。
実験によると、VeriSeekは複数のベンチマークで最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-07-21T11:25:21Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
CodeGRAGは、制御フローとそれらのデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミングドメインの知識をよりよく解釈する。
CodeGRAGはLLMのコード生成能力を大幅に改善し、言語間コード生成のパフォーマンス向上も実現している。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - A Multi-Expert Large Language Model Architecture for Verilog Code Generation [5.159745269633967]
本稿では,Verilog Code Generation (MEV-LLM) のための,革新的なマルチエキスパート LLM アーキテクチャを提案する。
我々のアーキテクチャは、複数のLCMを一意に統合しており、それぞれが、異なるレベルの設計複雑さに対して分類されたデータセットで微調整されている。
実験から得られた実証的な証拠は、構文的に、機能的に正しい生成したVerilog出力の比率において顕著な改善点を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-04-11T16:58:29Z) - Data is all you need: Finetuning LLMs for Chip Design via an Automated design-data augmentation framework [50.02710905062184]
本稿では,Verilog と EDA スクリプトに適合する高ボリュームかつ高品質な自然言語を生成する自動設計データ拡張フレームワークを提案する。
Verilog生成の精度は現在の最先端のオープンソースVerilog生成モデルを超え、同じベンチマークで58.8%から70.6%に増加した。
論文 参考訳(メタデータ) (2024-03-17T13:01:03Z) - VerilogEval: Evaluating Large Language Models for Verilog Code
Generation [6.88526119890374]
本稿では,VerilogインストラクショナルWebサイトHDLBitsの156問題からなる総合評価データセットを提案する。
評価セットは、単純な組合せ回路から複雑な有限状態マシンまで、様々なVerilogコード生成タスクからなる。
論文 参考訳(メタデータ) (2023-09-14T09:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。