論文の概要: CorrectHDL: Agentic HDL Design with LLMs Leveraging High-Level Synthesis as Reference
- arxiv url: http://arxiv.org/abs/2511.16395v1
- Date: Thu, 20 Nov 2025 14:13:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.666205
- Title: CorrectHDL: Agentic HDL Design with LLMs Leveraging High-Level Synthesis as Reference
- Title(参考訳): 修正HDL:高レベル合成を基準としたLDMを用いたエージェントHDL設計
- Authors: Kangwei Xu, Grace Li Zhang, Ulf Schlichtmann, Bing Li,
- Abstract要約: 大規模言語モデル (LLM) はハードウェア記述言語 (HDL) を用いたハードウェアフロントエンド設計において顕著な可能性を示している。
幻覚に対するその固有の傾向は、しばしば生成されたHDL設計に機能的誤りをもたらす。
本稿では,高レベル合成(HLS)結果を関数参照として活用し,潜在的な誤りを正すフレームワークであるCorrectHDLを提案する。
- 参考スコア(独自算出の注目度): 8.207258785260722
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable potential in hardware front-end design using hardware description languages (HDLs). However, their inherent tendency toward hallucination often introduces functional errors into the generated HDL designs. To address this issue, we propose the framework CorrectHDL that leverages high-level synthesis (HLS) results as functional references to correct potential errors in LLM-generated HDL designs.The input to the proposed framework is a C/C++ program that specifies the target circuit's functionality. The program is provided to an LLM to directly generate an HDL design, whose syntax errors are repaired using a Retrieval-Augmented Generation (RAG) mechanism. The functional correctness of the LLM-generated circuit is iteratively improved by comparing its simulated behavior with an HLS reference design produced by conventional HLS tools, which ensures the functional correctness of the result but can lead to suboptimal area and power efficiency. Experimental results demonstrate that circuits generated by the proposed framework achieve significantly better area and power efficiency than conventional HLS designs and approach the quality of human-engineered circuits. Meanwhile, the correctness of the resulting HDL implementation is maintained, highlighting the effectiveness and potential of agentic HDL design leveraging the generative capabilities of LLMs and the rigor of traditional correctness-driven IC design flows.
- Abstract(参考訳): 大規模言語モデル (LLM) はハードウェア記述言語 (HDL) を用いたハードウェアフロントエンド設計において顕著な可能性を示している。
しかし、幻覚に対するその固有の傾向は、しばしば生成されたHDL設計に機能的誤りをもたらす。
この問題に対処するために,高レベル合成(HLS)結果を関数参照として利用するフレームワークCorrectHDLを提案する。
LLMに提供され、構文エラーをRetrieval-Augmented Generation(RAG)機構で修復するHDL設計を直接生成する。
LLM生成回路の機能的正しさは、シミュレーションされた動作と従来のHLSツールによるHLS参照設計を比較して反復的に改善され、その結果の関数的正しさは保証されるが、最適領域と電力効率に繋がる。
実験により,提案手法により生成された回路は従来のHLS設計よりも面積と電力効率が大幅に向上し,人為的回路の品質が向上することを示した。
一方, 得られたHDL実装の正しさは維持され, LLMの生成能力と従来の正しさ駆動型IC設計フローの厳密さを活かしたエージェントHDL設計の有効性と可能性を強調している。
関連論文リスト
- MAHL: Multi-Agent LLM-Guided Hierarchical Chiplet Design with Adaptive Debugging [30.305211001929496]
大きな言語モデル(LLM)は2.5Dに拡張することを約束している。
LLMはフラットな設計、高い検証コスト、不正確なパラメータ最適化といった課題に直面している。
階層型LLMベースのチップレット設計生成フレームワークであるMAHLを提案する。
論文 参考訳(メタデータ) (2025-08-08T05:47:31Z) - HDLCoRe: A Training-Free Framework for Mitigating Hallucinations in LLM-Generated HDL [8.078194378107936]
HDLCoReは、大規模言語モデルのHDL生成能力を向上する、トレーニング不要のフレームワークである。
本フレームワークはRTLLM2.0ベンチマークにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2025-03-18T07:09:39Z) - Exploring Code Language Models for Automated HLS-based Hardware Generation: Benchmark, Infrastructure and Analysis [14.458529723566379]
LLM(Large Language Model)は、PythonやC++などのプログラミング言語に使用される。
本稿では,LLMを利用してHLS(High-Level Synthesis)ベースのハードウェア設計を行う。
論文 参考訳(メタデータ) (2025-02-19T17:53:59Z) - HiVeGen -- Hierarchical LLM-based Verilog Generation for Scalable Chip Design [24.46771930751068]
HiVeGenは階層的なVerilog生成フレームワークで、生成タスクを階層的なサブモジュールに分解する。
自動設計空間探索(DSE)を階層対応のプロンプト生成に変換し、コードの再利用を強化するために重みに基づく検索を導入する。
エラー補正コストを低減し、生成した設計の質を大幅に向上させる。
論文 参考訳(メタデータ) (2024-12-06T19:37:53Z) - Are LLMs Any Good for High-Level Synthesis? [1.3927943269211591]
大規模言語モデル(LLM)は、高レベル合成(HLS)プロセスの合理化や置き換えが可能である。
LLMは自然言語の仕様を理解し、Cコードや自然言語の仕様を翻訳することができる。
本研究の目的は、AIアクセラレーション、組み込みシステム、高性能コンピューティングなどのアプリケーションにおいて、最適化されたハードウェア設計のための将来的な方向性を特定することである。
論文 参考訳(メタデータ) (2024-08-19T21:40:28Z) - Case2Code: Scalable Synthetic Data for Code Generation [105.89741089673575]
大規模言語モデル(LLM)は、コード生成において顕著なブレークスルーを示している。
最近の研究は、いくつかの強力なLLMによって生成された合成データをトレーニングすることで、コードLLMを改善している。
プログラムの表現性と正確性を利用したtextbfCase2Code タスクを提案する。
論文 参考訳(メタデータ) (2024-07-17T11:35:00Z) - Classification-Based Automatic HDL Code Generation Using LLMs [9.630310313347657]
大規模言語モデル(LLM)は、デジタル回路用のハードウェア記述言語(HDL)コードを生成する能力を実証している。
LLMは幻覚の問題に悩まされ、誤ったHDLコードの生成や仕様の誤解につながる。
我々は,LLMの幻覚を緩和し,HDLコード生成の性能を向上させるために,人間の専門性に着想を得た手法を提案する。
論文 参考訳(メタデータ) (2024-07-04T09:00:13Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。