論文の概要: DecoRTL: A Run-time Decoding Framework for RTL Code Generation with LLMs
- arxiv url: http://arxiv.org/abs/2507.02226v1
- Date: Thu, 03 Jul 2025 01:17:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:15.469745
- Title: DecoRTL: A Run-time Decoding Framework for RTL Code Generation with LLMs
- Title(参考訳): DecoRTL: LLMを使ったRTLコード生成のための実行時デコーディングフレームワーク
- Authors: Mohammad Akyash, Kimia Azar, Hadi Kamali,
- Abstract要約: 大規模言語モデル (LLM) は構造的あいまいさや意味的複雑さの領域において信頼性が低いことを示す。
本稿では,新しい実行時デコーディング戦略であるDecoRTLを紹介する。
私たちのアプローチは、追加のモデル微調整を必要とせずに、完全に推論時に動作します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As one of their many applications, large language models (LLMs) have recently shown promise in automating register transfer level (RTL) code generation. However, conventional LLM decoding strategies, originally designed for natural language, often fail to meet the structural and semantic demands of RTL, leading to hallucinated, repetitive, or invalid code outputs. In this paper, we first investigate the root causes of these decoding failures through an empirical analysis of token-level entropy during RTL generation. Our findings reveal that LLMs exhibit low confidence in regions of structural ambiguity or semantic complexity, showing that standard decoding strategies fail to differentiate between regions requiring determinism (syntax-critical regions) and those that benefit from creative exploratory variability (design-critical regions). Then, to overcome this, we introduce DecoRTL, a novel run-time decoding strategy, that is both syntax-aware and contrastive for RTL code generation. DecoRTL integrates two complementary components: (i) self-consistency sampling, which generates multiple candidates and re-ranks them based on token-level agreement to promote correctness while maintaining diversity; and (ii) syntax-aware temperature adaptation, which classifies tokens by their syntactical and functional roles and adjusts the sampling temperature accordingly, enforcing low temperature for syntax-critical tokens and higher temperature for exploratory ones. Our approach operates entirely at inference time without requiring any additional model fine-tuning. Through evaluations on multiple open-source LLMs using the VerilogEval benchmark, we demonstrate significant improvements in syntactic validity, functional correctness, and output diversity, while the execution overhead (performance overhead) is imperceptible.
- Abstract(参考訳): 彼らの多くのアプリケーションの1つとして、大規模言語モデル(LLM)が最近、レジスタ転送レベル(RTL)コード生成の自動化を約束している。
しかし、元々自然言語用に設計された従来のLLMデコーディング戦略は、しばしばRTLの構造的・意味的な要求を満たすことができず、幻覚的、反復的、または無効なコード出力につながる。
本稿では,RTL生成におけるトークンレベルエントロピーの実験的解析により,これらのデコード障害の根本原因について検討する。
その結果,LLMは構造的曖昧性や意味的複雑性の領域において信頼度が低く,決定性を必要とする領域(構文クリティカル領域)と創造的探索的変動(設計クリティカル領域)の恩恵を受ける領域(設計クリティカル領域)を区別できないことが明らかとなった。
そして,この問題を解決するために,構文認識とRTLコード生成のコントラストを考慮した,新しい実行時デコーディング戦略であるDecoRTLを導入する。
DecoRTLは2つの補完的なコンポーネントを統合している。
一 自己整合性サンプリングであって、複数の候補を生成し、多様性を維持しつつ、正当性を促進するためのトークンレベル合意に基づいてそれらを再度ランク付けすること。
(II) 構文クリティカルトークンの低温と探索トークンの高温を強制し, それらの構文的・機能的役割によってトークンを分類し, サンプリング温度を順に調整する構文認識温度適応法。
私たちのアプローチは、追加のモデル微調整を必要とせずに、完全に推論時に動作します。
VerilogEval ベンチマークを用いて,複数のオープンソース LLM の評価により,実行オーバーヘッド(性能オーバーヘッド)が許容できないのに対して,構文的妥当性,機能的正確性,出力多様性の大幅な改善が示された。
関連論文リスト
- PRO-V: An Efficient Program Generation Multi-Agent System for Automatic RTL Verification [6.983135183126461]
Pro-Vは、堅牢なRTL検証のためのプログラム生成マルチエージェントシステムである。
生成したテストベンチの正しさを高めるため、効率的なn個の反復サンプリング戦略が組み込まれている。
Pro-Vは、黄金のRTL実装では87.17%、RTL変異では76.28%の精度で検証されている。
論文 参考訳(メタデータ) (2025-06-13T20:06:34Z) - Fast-dLLM: Training-free Acceleration of Diffusion LLM by Enabling KV Cache and Parallel Decoding [51.711605076319216]
拡散に基づく大規模言語モデル (Diffusion LLM) は、並列復号機能を持つ非自己回帰テキスト生成を約束している。
本稿では,双方向拡散モデルに適したブロック単位で近似したKVキャッシュ機構を提案する。
本稿では,信頼しきい値を超えるトークンを選択的に復号し,依存関係違反を軽減し,生成品質を維持できる信頼度対応並列復号方式を提案する。
論文 参考訳(メタデータ) (2025-05-28T17:39:15Z) - RTL++: Graph-enhanced LLM for RTL Code Generation [0.0]
従来のレジスタ転送レベル (RTL) の設計手法は手作業で、時間がかかり、エラーを起こしやすい。
オープンソースモデルは代替手段を提供するが、品質や正確性に欠けることが多い。
本稿では RTL コード生成のための LLM 支援手法 RTL++ を提案する。
論文 参考訳(メタデータ) (2025-05-11T00:17:26Z) - SymRTLO: Enhancing RTL Code Optimization with LLMs and Neuron-Inspired Symbolic Reasoning [18.40402135952776]
本稿では,新しいニューロン-シンボリックRTL最適化フレームワークであるSymRTLOを提案する。
有限状態機械(FSM)論理の解析と最適化のための記号モジュールを提案する。
Synopsys Design Compiler と Yosys による RTL-Rewriter ベンチマークの実験では、SymRTLO は 43.9% と 62.5% と 51.1% に向上している。
論文 参考訳(メタデータ) (2025-04-14T16:15:55Z) - TuRTLe: A Unified Evaluation of LLMs for RTL Generation [0.6010802600885173]
本研究では,主要なRTL生成タスク間でLLMを評価するための統合評価フレームワークTuRTLeを提案する。
オープンLLMの多様なセットをベンチマークし、EDA固有のタスクの長所と短所を分析します。
以上の結果から,DeepSeek R1のような推論モデルの方が,複数の評価基準で常に優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-03-31T07:43:12Z) - Hot or Cold? Adaptive Temperature Sampling for Code Generation with
Large Language Models [54.72004797421481]
コード生成に特化したデコード戦略を検討するために、最初の体系的な研究を行う。
以上の知見に触発されて,適応温度(AdapT)サンプリング法を提案する。
その結果,AdapTサンプリングは最先端の復号化戦略を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2023-09-06T06:27:33Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。