論文の概要: RTL++: Graph-enhanced LLM for RTL Code Generation
- arxiv url: http://arxiv.org/abs/2505.13479v1
- Date: Sun, 11 May 2025 00:17:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.258855
- Title: RTL++: Graph-enhanced LLM for RTL Code Generation
- Title(参考訳): RTL++: RTLコード生成のためのグラフ強化LLM
- Authors: Mohammad Akyash, Kimia Azar, Hadi Kamali,
- Abstract要約: 従来のレジスタ転送レベル (RTL) の設計手法は手作業で、時間がかかり、エラーを起こしやすい。
オープンソースモデルは代替手段を提供するが、品質や正確性に欠けることが多い。
本稿では RTL コード生成のための LLM 支援手法 RTL++ を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As hardware design complexity escalates, there is an urgent need for advanced automation in electronic design automation (EDA). Traditional register transfer level (RTL) design methods are manual, time-consuming, and prone to errors. While commercial (instruction-tuned) large language models (LLMs) shows promising performance for automation, they pose security and privacy concerns. Open-source models offer alternatives; however, they frequently fall short in quality/correctness, largely due to limited, high-quality RTL code data essential for effective training and generalization. This paper proposes RTL++, a first-of-its-kind LLM-assisted method for RTL code generation that utilizes graph representations of code structures to enhance the quality of generated code. By encoding RTL code into a textualized control flowgraphs (CFG) and data flow graphs (DFG), RTL++ captures the inherent hierarchy, dependencies, and relationships within the code. This structured graph-based approach enhances the context available to LLMs, enabling them to better understand and generate instructions. By focusing on data generation through graph representations, RTL++ addresses the limitations of previous approaches that rely solely on code and suffer from lack of diversity. Experimental results demonstrate that RTL++ outperforms state-of-the-art models fine-tuned for RTL generation, as evaluated using the VerilogEval benchmark's Pass@1/5/10 metric, as well as the RTLLM1.1 model, which highlight the effectiveness of graph-enhanced context in advancing the capabilities of LLM-assisted RTL code generation.
- Abstract(参考訳): ハードウェア設計の複雑さがエスカレートするにつれて、電子設計自動化(EDA)における高度な自動化が緊急に必要となる。
従来のレジスタ転送レベル (RTL) の設計手法は手作業で、時間がかかり、エラーを起こしやすい。
商用(インストラクションをチューニングした)大規模言語モデル(LLM)は自動化に有望なパフォーマンスを示す一方で、セキュリティとプライバシの懸念を生じさせる。
オープンソースモデルは代替手段を提供するが、多くの場合、効果的なトレーニングと一般化に不可欠な、限られた高品質のRTLコードデータのために、品質/正確性に欠ける。
本稿では,コード構造のグラフ表現を利用して生成したコードの品質を向上させるRTL++を提案する。
RTL++は、テキスト化された制御フローグラフ(CFG)とデータフローグラフ(DFG)にRTLコードをエンコードすることで、コード内の固有の階層、依存関係、関係をキャプチャする。
この構造化グラフベースのアプローチは、LLMで利用可能なコンテキストを強化し、より理解し、命令を生成することができる。
グラフ表現によるデータ生成に集中することにより、RTL++は、コードのみに依存し、多様性の欠如に悩まされる従来のアプローチの限界に対処する。
実験結果から、RTL++は、VerilogEvalベンチマークのPass@1/5/10メトリックとRTLLM1.1モデルを用いて評価され、RTL生成のために調整された最先端モデルよりも優れていることが示された。
関連論文リスト
- RTLRepoCoder: Repository-Level RTL Code Completion through the Combination of Fine-Tuning and Retrieval Augmentation [6.428086269916113]
RTLRepoCoderは,レポジトリレベルのVerilogコード補完のために,特定の微調整および検索型拡張生成(RAG)を組み込んだ画期的なソリューションである。
提案手法は,GPT-4 および高度なドメイン固有 LLM の編集類似性および実行一致率を大幅に上回る,公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2025-04-11T09:04:50Z) - MAGE: A Multi-Agent Engine for Automated RTL Code Generation [5.899673582879575]
MAGEは、堅牢で正確なVerilog RTLコード生成のために設計された、最初のオープンソースのマルチエージェントAIシステムである。
MAGE は VerilogEval-Human 2 ベンチマークで 95.7% の構文的および機能的正当性コード生成を実現している。
論文 参考訳(メタデータ) (2024-12-10T21:53:55Z) - EDA-Aware RTL Generation with Large Language Models [0.7831852829409273]
LLM(Large Language Models)は、RTLコードを生成するために人気が高まっている。
ゼロショット設定でエラーのないRTLコードを生成することは、最先端のLLMでも非常に難しい。
本稿では,構文と機能的エラーの反復的修正によるRTLコード生成の高速化を目的とした,自己検証型LLM非依存型エージェントフレームワークであるAIvril2を紹介する。
論文 参考訳(メタデータ) (2024-11-21T00:37:51Z) - AIvril: AI-Driven RTL Generation With Verification In-The-Loop [0.7831852829409273]
LLM(Large Language Models)は、複雑な自然言語処理タスクを実行できる計算モデルである。
本稿では,RTL対応LLMの精度と信頼性を高めるためのフレームワークであるAIvrilを紹介する。
論文 参考訳(メタデータ) (2024-09-03T15:07:11Z) - OriGen:Enhancing RTL Code Generation with Code-to-Code Augmentation and Self-Reflection [54.775409528658486]
OriGenは、セルフリフレクション機能と新しいデータセット拡張方法論を組み込んだ、完全なオープンソースフレームワークである。
このアプローチでは,オープンソースのRTLコードデータセットの品質向上のために,コード-コード拡張技術を採用している。
論文 参考訳(メタデータ) (2024-07-23T07:22:25Z) - Self-play with Execution Feedback: Improving Instruction-following Capabilities of Large Language Models [54.14602121129874]
トレーニングデータを自動的に生成する最初のスケーラブルで信頼性の高いAutoIFを導入する。
AutoIFは命令追従データ品質の検証をコード検証に変換する。
論文 参考訳(メタデータ) (2024-06-19T13:29:53Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。