論文の概要: SYMDIREC: A Neuro-Symbolic Divide-Retrieve-Conquer Framework for Enhanced RTL Synthesis and Summarization
- arxiv url: http://arxiv.org/abs/2603.17208v1
- Date: Tue, 17 Mar 2026 23:15:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.441855
- Title: SYMDIREC: A Neuro-Symbolic Divide-Retrieve-Conquer Framework for Enhanced RTL Synthesis and Summarization
- Title(参考訳): SYMDIREC:RTL合成・要約のためのニューロ・シンボリック・ディバイド・リトリーブ・コンカレントフレームワーク
- Authors: Prashanth Vijayaraghavan, Apoorva Nitsure, Luyao Shi, Charles Mackin, Ashutosh Jadhav, David Beymer, Ehsan Degan, Vandana Mukherjee,
- Abstract要約: 本稿では,RTLタスクをシンボルサブゴールに分解する神経シンボリックフレームワークであるSYMDIRECを紹介する。
SYMDIRECは合成のためのPass@1の20%、要約のための15-20%のROUGE-Lの改善を達成する。
- 参考スコア(独自算出の注目度): 7.859771567878595
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Register-Transfer Level (RTL) synthesis and summarization are central to hardware design automation but remain challenging for Large Language Models (LLMs) due to rigid HDL syntax, limited supervision, and weak alignment with natural language. Existing prompting and retrieval-augmented generation (RAG) methods have not incorporated symbolic planning, limiting their structural precision. We introduce SYMDIREC, a neuro-symbolic framework that decomposes RTL tasks into symbolic subgoals, retrieves relevant code via a fine-tuned retriever, and assembles verified outputs through LLM reasoning. Supporting both Verilog and VHDL without LLM fine-tuning, SYMDIREC achieves ~20% higher Pass@1 rates for synthesis and 15-20% ROUGE-L improvements for summarization over prompting and RAG baselines, demonstrating the benefits of symbolic guidance in RTL tasks.
- Abstract(参考訳): レジスタ-トランスファーレベル(RTL)の合成と要約はハードウェア設計の自動化の中心であるが、厳密なHDL構文、限定的な監督、自然言語との弱い整合性のため、LLM(Large Language Models)では依然として困難である。
既存のプロンプトおよび検索拡張生成(RAG)手法は、その構造精度を制限し、シンボル計画を組み込んでいない。
SYMDIRECは、RTLタスクをシンボルサブゴールに分解し、微調整された検索器を介して関連コードを検索し、LSM推論によって検証された出力を組み立てる、神経シンボリックなフレームワークである。
LLM微調整なしでVerilogとVHDLの両方をサポートするSYMDIRECは、合成のためのPass@1レートが約20%高く、15-20% ROUGE-Lの改善により、プロンプトとRAGベースラインよりも要約が向上し、RTLタスクにおけるシンボルガイダンスの利点が実証された。
関連論文リスト
- RAVEL: Reasoning Agents for Validating and Evaluating LLM Text Synthesis [78.32151470154422]
テスト担当者が自律的に設計し、典型的な合成操作を実行できるようにするためのエージェントフレームワークであるRAVELを紹介する。
C3EBenchは、プロの人間の文章から1,258個のサンプルを抽出したベンチマークである。
SOTA LLMを演算子としてRAVELを増強することにより、そのようなエージェントテキスト合成はLLMの推論能力に支配されていることがわかった。
論文 参考訳(メタデータ) (2026-02-28T14:47:34Z) - ACE-RTL: When Agentic Context Evolution Meets RTL-Specialized LLMs [12.204779627626273]
ACE-RTLは170万のRTLサンプルの大規模なデータセットに基づいて訓練されたRTL特化LDMを統合している。
Comprehensive Verilog Design Problems (CVDP)ベンチマークでは、ACE-RTLは14の競争基準よりも44.87%のパスレート改善を達成した。
論文 参考訳(メタデータ) (2026-02-10T19:09:13Z) - Neurosymbolic LoRA: Why and When to Tune Weights vs. Rewrite Prompts [60.59428237500969]
大規模言語モデル(LLM)は、モデルのパラメータを変更する数値的な更新や、離散的なプロンプトや論理的な制約を扱うシンボリックな操作によって適応することができる。
本稿では,数値的および記号的更新を組み合わせたニューロシンボリックなLoRAフレームワークを提案する。
本研究は,言語モデルの微調整における汎用性を高めるために,数値的および記号的更新をインターリーブすることの価値を強調した。
論文 参考訳(メタデータ) (2026-01-19T04:24:49Z) - Bridging Natural Language and Formal Specification--Automated Translation of Software Requirements to LTL via Hierarchical Semantics Decomposition Using LLMs [10.958536923155101]
Req2LTLは、NLとLinear Temporal Logicをブリッジするモジュラーフレームワークである。
実世界の航空要求に対して88.4%のセマンティック精度と100%の構文的正確性を達成する。
論文 参考訳(メタデータ) (2025-12-19T08:25:54Z) - SAFT: Structure-Aware Fine-Tuning of LLMs for AMR-to-Text Generation [50.277959544420455]
SAFTは、事前訓練された言語モデルにグラフトポロジーを注入する構造対応の微調整手法である。
変換されたAMRの磁気ラプラシアンから方向感応的な位置エンコーディングを計算する。
SAFTはAMR 3.0に新しい最先端を設定、ベースラインを3.5BLEU改善した。
論文 参考訳(メタデータ) (2025-07-15T18:12:57Z) - DecoRTL: A Run-time Decoding Framework for RTL Code Generation with LLMs [0.0]
大規模言語モデル (LLM) は構造的あいまいさや意味的複雑さの領域において信頼性が低いことを示す。
本稿では,新しい実行時デコーディング戦略であるDecoRTLを紹介する。
私たちのアプローチは、追加のモデル微調整を必要とせずに、完全に推論時に動作します。
論文 参考訳(メタデータ) (2025-07-03T01:17:44Z) - SymRTLO: Enhancing RTL Code Optimization with LLMs and Neuron-Inspired Symbolic Reasoning [30.938876549335067]
本稿では,新しいニューロン-シンボリックRTL最適化フレームワークであるSymRTLOを提案する。
有限状態機械(FSM)論理の解析と最適化のための記号モジュールを提案する。
Synopsys Design Compiler と Yosys による RTL-Rewriter ベンチマークの実験では、SymRTLO は 43.9% と 62.5% と 51.1% に向上している。
論文 参考訳(メタデータ) (2025-04-14T16:15:55Z) - $\texttt{SEM-CTRL}$: Semantically Controlled Decoding [53.86639808659575]
$texttSEM-CTRL$は、LLMデコーダに直接、リッチなコンテキスト依存制約とタスクおよびインスタンス固有のセマンティクスを強制する統一的なアプローチである。
texttSEM-CTRL$は、小さな訓練済みのLLMがより大きな変種や最先端の推論モデルよりも効率的に性能を向上することを可能にする。
論文 参考訳(メタデータ) (2025-03-03T18:33:46Z) - HiVeGen -- Hierarchical LLM-based Verilog Generation for Scalable Chip Design [24.46771930751068]
HiVeGenは階層的なVerilog生成フレームワークで、生成タスクを階層的なサブモジュールに分解する。
自動設計空間探索(DSE)を階層対応のプロンプト生成に変換し、コードの再利用を強化するために重みに基づく検索を導入する。
エラー補正コストを低減し、生成した設計の質を大幅に向上させる。
論文 参考訳(メタデータ) (2024-12-06T19:37:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。