論文の概要: QiMeng-CodeV-SVA: Training Specialized LLMs for Hardware Assertion Generation via RTL-Grounded Bidirectional Data Synthesis
- arxiv url: http://arxiv.org/abs/2603.14239v1
- Date: Sun, 15 Mar 2026 06:25:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.691416
- Title: QiMeng-CodeV-SVA: Training Specialized LLMs for Hardware Assertion Generation via RTL-Grounded Bidirectional Data Synthesis
- Title(参考訳): QiMeng-CodeV-SVA:RTL周辺双方向データ合成によるハードウェア・アサーション・ジェネレーションのための訓練用LLM
- Authors: Yutong Wu, Chenrui Cao, Pengwei Jin, Di Huang, Rui Zhang, Xishan Zhang, Zidong Du, Qi Guo, Xing Hu,
- Abstract要約: 我々は,高品質な実世界のSVAコーパスの不足と,NL-SVAセマンティック等価性を決定するための信頼性の高い手法の欠如という,2つの課題に対処するデータ合成フレームワークを提案する。
我々は,一連のSVA生成モデルであるCodeV-SVAを訓練する。特に,CodeV-SVAはNL2SVA-Humanで75.8%,NL2SVA-Machineで84.0%を達成した。
- 参考スコア(独自算出の注目度): 41.09864485551356
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: SystemVerilog Assertions (SVAs) are crucial for hardware verification. Recent studies leverage general-purpose LLMs to translate natural language properties to SVAs (NL2SVA), but they perform poorly due to limited data. We propose a data synthesis framework to tackle two challenges: the scarcity of high-quality real-world SVA corpora and the lack of reliable methods to determine NL-SVA semantic equivalence. For the former, large-scale open-source RTLs are used to guide LLMs to generate real-world SVAs; for the latter, bidirectional translation serves as a data selection method. With the synthesized data, we train CodeV-SVA, a series of SVA generation models. Notably, CodeV-SVA-14B achieves 75.8% on NL2SVA-Human and 84.0% on NL2SVA-Machine in Func.@1, matching or exceeding advanced LLMs like GPT-5 and DeepSeek-R1.
- Abstract(参考訳): SystemVerilog Assertions (SVAs) はハードウェア検証に不可欠である。
近年の研究では、汎用LLMを用いて自然言語特性をSVA(NL2SVA)に翻訳しているが、限られたデータのために性能が悪くなっている。
高品質な実世界のSVAコーパスの不足と,NL-SVAセマンティック等価性を決定するための信頼性の高い手法の欠如という,2つの課題に対処するデータ合成フレームワークを提案する。
前者の大規模オープンソースRTLは、LLMを誘導して現実世界のSVAを生成するのに使われ、後者は双方向翻訳がデータ選択方法として機能する。
合成データを用いて、一連のSVA生成モデルであるCodeV-SVAを訓練する。
特に、CodeV-SVA-14BはNL2SVA-Humanで75.8%、NL2SVA-Machine in Funcで84.0%に達する。
GPT-5やDeepSeek-R1のような高度なLCMをマッチングしたり、超えたりします。
関連論文リスト
- VL-JEPA: Joint Embedding Predictive Architecture for Vision-language [54.86811250366009]
我々は,JEPA(Joint Embedding Predictive Architecture)上に構築された視覚言語モデルであるVL-JEPAを紹介する。
抽象表現空間で学習することにより、そのモデルは、表面レベルの言語的多様性を抽象化しながら、タスク関連セマンティクスに焦点を当てる。
推測時には、VL-JEPA予測埋め込みをテキストに変換する必要のある場合にのみ、軽量テキストデコーダが呼び出される。
論文 参考訳(メタデータ) (2025-12-11T18:59:22Z) - Multimodal LLMs as Customized Reward Models for Text-to-Image Generation [60.164968941945645]
LLaVA-Rewardは、複数の視点でテキスト・ツー・イメージ(T2I)生成を自動評価する効率的な報酬モデルである。
LLaVA-Rewardはマルチモーダル大言語モデル(MLLM)の隠れ状態を直接利用する
LLaVA-Rewardは、テキストイメージアライメント、忠実さ/アーティファクト、安全性、全体的なランク付けの4つの観点でトレーニングします。
論文 参考訳(メタデータ) (2025-07-28T23:52:53Z) - Hybrid-NL2SVA: Integrating RAG and Finetuning for LLM-based NL2SVA [18.491764850064616]
SystemVerilog Assertions (SVAs) はハードウェア設計の正しさを検証するために重要である。
大規模言語モデル(LLM)の最近の進歩は、この翻訳を自動化する機会を提供する。
本稿では,RAGフレームワークと合成微調整データセットを提案する。
論文 参考訳(メタデータ) (2025-06-12T17:52:06Z) - QiMeng-CodeV-R1: Reasoning-Enhanced Verilog Generation [51.393569044134445]
大きな言語モデル(LLM)は、強化学習と検証可能な報酬(RLVR)によって訓練され、明示的で自動化可能な検証を伴うタスクにおいてブレークスルーを達成した。
しかし、自然言語(NL)仕様からVerilogのようなハードウェア記述言語(HDL)を自動的に生成するRLVRの拡張には、3つの大きな課題がある。
本稿では,Verilog 生成 LLM をトレーニングするための RLVR フレームワークである CodeV-R1 を紹介する。
論文 参考訳(メタデータ) (2025-05-30T03:51:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。