論文の概要: Faver: Boosting LLM-based RTL Generation with Function Abstracted Verifiable Middleware
- arxiv url: http://arxiv.org/abs/2510.08664v1
- Date: Thu, 09 Oct 2025 15:41:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:47.311094
- Title: Faver: Boosting LLM-based RTL Generation with Function Abstracted Verifiable Middleware
- Title(参考訳): Faver: 関数抽象化検証ミドルウェアによるLLMベースのRTL生成の高速化
- Authors: Jianan Mu, Mingyu Shi, Yining Wang, Tianmeng Yang, Bin Sun, Xing Hu, Jing Ye, Huawei Li,
- Abstract要約: LLMベースのRTL生成は、チップ設計において最も自動化されていないステージを解放する可能性を秘めている。
高レベル仕様とRTLのセマンティックなギャップのため、既存のモデルは生成精度に苦しむ。
Faverはモデルの生成精度を最大14%向上させる。
- 参考スコア(独自算出の注目度): 15.79533870820653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLM-based RTL generation is an interesting research direction, as it holds the potential to liberate the least automated stage in the current chip design. However, due to the substantial semantic gap between high-level specifications and RTL, coupled with limited training data, existing models struggle with generation accuracy. Drawing on human experience, design with verification helps improving accuracy. However, as the RTL testbench data are even more scarce, it is not friendly for LLMs. Although LLMs excel at higher-level languages like Python/C, they have a huge semantic gap from RTL. When implementing the same functionality, Python/C code and hardware code differ significantly in the spatiotemporal granularity, requiring the LLM not only to consider high-level functional semantics but also to ensure the low-level details align with the circuit code. It is not an easy task. In this paper, we propose a function abstracted verifiable middleware (Faver) that streamlines RTL verification in LLM-based workflows. By mixing LLM-friendly code structures with a rule-based template, Faver decouples the details of circuit verification, allowing the LLM to focus on the functionality itself. In our experiments on the SFT model and open-source models, Faver improved the model's generation accuracy by up to 14%.
- Abstract(参考訳): LLMベースのRTL生成は、現在のチップ設計において最も自動化されていないステージを解放する可能性を秘めているため、興味深い研究方向である。
しかし、高レベルの仕様とRTLの間には意味的なギャップがあり、訓練データも限られており、既存のモデルは生成精度に苦慮している。
人間の経験に基づいて、検証による設計は、正確性を改善するのに役立つ。
しかし、RTLテストベンチデータはさらに少ないため、LSMには適さない。
LLMはPython/Cのような高レベルの言語では優れているが、RTLとは大きなセマンティックギャップがある。
同じ機能を実装する場合、Python/Cのコードとハードウェアのコードは時空間の粒度で大きく異なるため、LLMは高レベルの機能的セマンティクスだけでなく、低レベルの詳細を回路コードと一致させる必要がある。
それは簡単な仕事ではありません。
本稿では、LLMベースのワークフローにおけるRTL検証を効率化する、検証可能なミドルウェア(Faver)を抽象化する機能を提案する。
LLMフレンドリーなコード構造とルールベースのテンプレートを組み合わせることで、Faverは回路検証の詳細を分離し、LCMが機能自体に集中できるようにする。
SFTモデルとオープンソースモデルに関する実験で、Faverはモデルの生成精度を最大14%改善した。
関連論文リスト
- Enhancing LLM-based Fault Localization with a Functionality-Aware Retrieval-Augmented Generation Framework [14.287359838639608]
FaR-Locは、メソッドレベルの障害ローカライゼーションを強化するフレームワークである。
FaR-Locは、LLM機能抽出、Semantic Retrieval、LLM再ランクの3つの重要なコンポーネントで構成されている。
広く使われているDefects4Jベンチマーク実験により、FaR-Locは最先端のLCMベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2025-09-24T20:37:11Z) - The Fools are Certain; the Wise are Doubtful: Exploring LLM Confidence in Code Completion [4.215010577170175]
コードパープレキシティの測定により,コード生成時のLLM(Large Language Models)の信頼性を評価する。
強い型付け言語は動的型付け言語よりも難易度が低いことがわかった。
Perlは難易度が普遍的に高いが、Javaは低いように見える。
論文 参考訳(メタデータ) (2025-08-22T06:51:13Z) - PRO-V: An Efficient Program Generation Multi-Agent System for Automatic RTL Verification [6.983135183126461]
Pro-Vは、堅牢なRTL検証のためのプログラム生成マルチエージェントシステムである。
生成したテストベンチの正しさを高めるため、効率的なn個の反復サンプリング戦略が組み込まれている。
Pro-Vは、黄金のRTL実装では87.17%、RTL変異では76.28%の精度で検証されている。
論文 参考訳(メタデータ) (2025-06-13T20:06:34Z) - RTL++: Graph-enhanced LLM for RTL Code Generation [0.0]
従来のレジスタ転送レベル (RTL) の設計手法は手作業で、時間がかかり、エラーを起こしやすい。
オープンソースモデルは代替手段を提供するが、品質や正確性に欠けることが多い。
本稿では RTL コード生成のための LLM 支援手法 RTL++ を提案する。
論文 参考訳(メタデータ) (2025-05-11T00:17:26Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [68.29746557968107]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z) - MEIC: Re-thinking RTL Debug Automation using LLMs [18.964523115622928]
本研究は,新しいフレームワーク,Make each Iteration Count(MEIC)を紹介する。
MEICは、構文と関数のエラーを識別し、修正するのに適している。
フレームワークを評価するため、178の共通RTLプログラミングエラーからなるオープンソースデータセットを提供する。
論文 参考訳(メタデータ) (2024-05-10T22:32:39Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。