論文の概要: QiMeng-CRUX: Narrowing the Gap between Natural Language and Verilog via Core Refined Understanding eXpression
- arxiv url: http://arxiv.org/abs/2511.20099v1
- Date: Tue, 25 Nov 2025 09:17:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.377137
- Title: QiMeng-CRUX: Narrowing the Gap between Natural Language and Verilog via Core Refined Understanding eXpression
- Title(参考訳): QiMeng-CRUX: コアRefined Understanding eXpressionによる自然言語とVerilog間のギャップを狭める
- Authors: Lei Huang, Rui Zhang, Jiaming Guo, Yang Zhang, Di Huang, Shuyao Cheng, Pengwei Jin, Chongxiao Li, Zidong Du, Xing Hu, Qi Guo, Yunji Chen,
- Abstract要約: 大規模言語モデル(LLM)はハードウェア記述言語(HDL)生成において有望な能力を示している。
既存のアプローチは、しばしば曖昧で冗長で構造化されていない自由形式の自然言語記述に依存している。
我々は、ハードウェアコード生成を、オープンな自然言語空間からドメイン固有の高度に制約されたターゲット空間への複雑な変換として扱う。
構造化された中間空間であるCore Refined Understanding eXpression (CRUX)を導入し、ユーザの意図の本質的な意味を捉えながら、正確なVerilogコード生成のための式を整理する。
- 参考スコア(独自算出の注目度): 48.84841760215598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have shown promising capabilities in hardware description language (HDL) generation. However, existing approaches often rely on free-form natural language descriptions that are often ambiguous, redundant, and unstructured, which poses significant challenges for downstream Verilog code generation. We treat hardware code generation as a complex transformation from an open-ended natural language space to a domain-specific, highly constrained target space. To bridge this gap, we introduce Core Refined Understanding eXpression (CRUX), a structured intermediate space that captures the essential semantics of user intent while organizing the expression for precise Verilog code generation. We further design a two-stage training framework, comprising Joint Expression Modeling and Dual-Space Optimization, to enhance the quality of both CRUX and Verilog code. Experiments across multiple Verilog generation benchmarks demonstrate that our model, CRUX-V, achieves state-of-the-art performance among general models, particularly under challenging design tasks. Furthermore, the CRUX space proves transferable and beneficial when used as input prompts for other code models, highlighting its effectiveness in narrowing the gap between free-form natural language descriptions and precise Verilog generation.
- Abstract(参考訳): 大規模言語モデル(LLM)はハードウェア記述言語(HDL)生成において有望な能力を示している。
しかしながら、既存のアプローチは、しばしば不明瞭で冗長で非構造化な、自由形式の自然言語記述に依存しており、下流のVerilogコード生成に重大な課題をもたらしている。
我々は、ハードウェアコード生成を、オープンな自然言語空間からドメイン固有の高度に制約されたターゲット空間への複雑な変換として扱う。
このギャップを埋めるために、私たちはCore Refined Understanding eXpression (CRUX)を導入しました。
さらに、CRUXとVerilogの両コードの品質を高めるために、統合表現モデリングとデュアルスペース最適化を組み合わせた2段階のトレーニングフレームワークを設計する。
複数のVerilog生成ベンチマークを用いた実験により、我々のモデルであるCRUX-Vは、一般的なモデル、特に困難な設計タスクにおいて、最先端のパフォーマンスを達成することが示された。
さらに、CRUX空間は、他のコードモデルの入力プロンプトとして使われる場合、転送可能で有益なことを証明し、自由形式の自然言語記述と正確なVerilog生成とのギャップを狭める効果を強調している。
関連論文リスト
- VeriGRAG: Enhancing LLM-Based Verilog Code Generation with Structure-Aware Soft Prompts [4.227182480042518]
グラフニューラルネットワーク(GNN)を用いたVerilogコードから構造グラフ埋め込みを抽出する新しいフレームワークを提案する。
マルチモーダルレトリバーは、与えられた生成タスクに最も関係のあるグラフ埋め込みを選択する。
実験により、VeriGRAGはVerilogコード生成の正確性を大幅に改善することが示された。
論文 参考訳(メタデータ) (2025-09-27T10:23:36Z) - ProtocolLLM: RTL Benchmark for SystemVerilog Generation of Communication Protocols [45.66401695351214]
本稿では,広く使用されているSystemVerilogプロトコルを対象とした最初のベンチマークスイートであるProtocolLLMを紹介する。
我々は,ほとんどのモデルがタイミング制約に従う通信プロトコルのSystemVerilogコードを生成するのに失敗したことを観察する。
論文 参考訳(メタデータ) (2025-06-09T17:10:47Z) - DeepRTL: Bridging Verilog Understanding and Generation with a Unified Representation Model [13.532046953850902]
We present DeepRTL, a unified representation model that is excs in both Verilog understanding and generation。
CodeT5+に基づいて、DeepRTLは、Verilogコードをリッチでマルチレベルな自然言語記述と整合させる包括的なデータセットに基づいて微調整されている。
我々はVerilog理解のための最初のベンチマークを導入し、埋め込み類似性とGPTスコアを適用してモデルの理解能力を評価する。
論文 参考訳(メタデータ) (2025-02-20T11:07:55Z) - Natural language is not enough: Benchmarking multi-modal generative AI for Verilog generation [37.309663295844835]
視覚言語入力からのVerilog合成に適したマルチモーダル生成モデルのオープンソースベンチマークを提案する。
また、オープンソースのビジュアルで自然言語のVerilogクエリ言語フレームワークについても紹介する。
本結果は,自然言語のみに基づくクエリと比較して,マルチモーダル生成のVerilogが大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-07-11T13:10:09Z) - Decoding at the Speed of Thought: Harnessing Parallel Decoding of Lexical Units for LLMs [57.27982780697922]
大規模言語モデルは、自然言語の理解と生成において例外的な能力を示した。
しかし、それらの生成速度は、その復号過程の本質的にシーケンシャルな性質によって制限される。
本稿では,データ駆動方式で実装された新しいデコーディング手法であるLexical Unit Decodingを紹介する。
論文 参考訳(メタデータ) (2024-05-24T04:35:13Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
CodeGRAGは、制御フローとそれらのデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミングドメインの知識をよりよく解釈する。
CodeGRAGはLLMのコード生成能力を大幅に改善し、言語間コード生成のパフォーマンス向上も実現している。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。