論文の概要: EvolVE: Evolutionary Search for LLM-based Verilog Generation and Optimization
- arxiv url: http://arxiv.org/abs/2601.18067v1
- Date: Mon, 26 Jan 2026 01:53:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.612185
- Title: EvolVE: Evolutionary Search for LLM-based Verilog Generation and Optimization
- Title(参考訳): EvolVE: LLMに基づくVerilog生成と最適化のための進化的探索
- Authors: Wei-Po Hsin, Ren-Hao Deng, Yao-Ting Hsieh, En-Ming Huang, Shih-Hao Hung,
- Abstract要約: 本稿では,チップ設計タスクにおける複数の進化戦略を解析する最初のフレームワークであるEvolVEを紹介する。
また,全国集積回路コンテストから派生した産業規模の問題を対象とするIC-RTLを導入する。
- 参考スコア(独自算出の注目度): 0.2796197251957245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Verilog's design cycle is inherently labor-intensive and necessitates extensive domain expertise. Although Large Language Models (LLMs) offer a promising pathway toward automation, their limited training data and intrinsic sequential reasoning fail to capture the strict formal logic and concurrency inherent in hardware systems. To overcome these barriers, we present EvolVE, the first framework to analyze multiple evolution strategies on chip design tasks, revealing that Monte Carlo Tree Search (MCTS) excels at maximizing functional correctness, while Idea-Guided Refinement (IGR) proves superior for optimization. We further leverage Structured Testbench Generation (STG) to accelerate the evolutionary process. To address the lack of complex optimization benchmarks, we introduce IC-RTL, targeting industry-scale problems derived from the National Integrated Circuit Contest. Evaluations establish EvolVE as the new state-of-the-art, achieving 98.1% on VerilogEval v2 and 92% on RTLLM v2. Furthermore, on the industry-scale IC-RTL suite, our framework surpasses reference implementations authored by contest participants, reducing the Power, Performance, Area (PPA) product by up to 66% in Huffman Coding and 17% in the geometric mean across all problems. The source code of the IC-RTL benchmark is available at https://github.com/weiber2002/ICRTL.
- Abstract(参考訳): Verilogの設計サイクルは本質的に労働集約的であり、広範なドメインの専門知識を必要とする。
LLM(Large Language Models)は、自動化への有望な道筋を提供するが、その限られたトレーニングデータと本質的なシーケンシャル推論は、ハードウェアシステムに固有の厳密な形式論理と並行性を捉えることができない。
これらの障壁を克服するために、チップ設計タスクにおける複数の進化戦略を解析する最初のフレームワークであるEvolveを紹介し、モンテカルロ木探索(MCTS)が機能的正しさの最大化に優れており、Idean-Guided Refinement(IGR)は最適化に優れていることを示した。
我々はさらにStructured Testbench Generation (STG)を活用して進化過程を加速する。
複雑な最適化ベンチマークの欠如に対処するため,国家集積回路コンテストから派生した産業規模の問題を対象としたIC-RTLを導入する。
評価はEvolVEを新たな最先端技術として確立し、VerilogEval v2では98.1%、RTLLM v2では92%を達成している。
さらに,業界規模のIC-RTLスイートでは,コンペ参加者による参照実装を超越し,Huffman Codingでは最大66%,幾何学平均では17%,PPA(Power, Performance, Area)製品では最大66%の削減を実現した。
IC-RTLベンチマークのソースコードはhttps://github.com/weiber2002/ICRTLで公開されている。
関連論文リスト
- AscendKernelGen: A Systematic Study of LLM-Based Kernel Generation for Neural Processing Units [39.846358001824996]
我々は,NPUカーネル開発のための世代評価統合フレームワークAscend KernelGenを提案する。
本稿では,実世界のカーネル実装から派生したチェーン・オブ・シント推論を取り入れた高品質なデータセットAscend-CoTを紹介する。
NPU KernelBenchも設計しています。これは、様々な複雑さレベルにわたるコンパイル、正確性、パフォーマンスを評価するための包括的なベンチマークです。
論文 参考訳(メタデータ) (2026-01-12T03:12:58Z) - A New Benchmark for the Appropriate Evaluation of RTL Code Optimization [11.115027718178759]
この研究は、RTL最適化における大規模言語モデル(LLM)の能力を評価するベンチマークであるRTL-OPTを導入する。
各タスクは、業界で実証された最適化パターンを反映した、一対のRTLコード、準最適バージョン、人間に最適化された参照を提供する。
さらに、RTL-OPTは自動評価フレームワークを統合し、機能的正当性を検証し、改善を定量化する。
論文 参考訳(メタデータ) (2026-01-05T03:47:26Z) - REvolution: An Evolutionary Framework for RTL Generation driven by Large Language Models [2.127921199213507]
LLM(Large Language Models)は、レジスター-トランスファーレベル(RTL)コード生成に使用される。
本稿では,進化計算(EC)とLLMを組み合わせて自動RTL生成と最適化を行うフレームワークであるRevolutionを紹介する。
論文 参考訳(メタデータ) (2025-10-24T12:50:35Z) - MM-HELIX: Boosting Multimodal Long-Chain Reflective Reasoning with Holistic Platform and Adaptive Hybrid Policy Optimization [103.74675519953898]
ロングチェーンのリフレクティブ推論は、複雑な現実世界の問題を解決するための前提条件である。
我々は42の難解な合成タスクの1,260のサンプルからなるベンチマークを構築した。
トレーニング後のデータを生成し、そのようなデータを活用するための学習パラダイムを探索する。
論文 参考訳(メタデータ) (2025-10-09T17:53:58Z) - CROP: Circuit Retrieval and Optimization with Parameter Guidance using LLMs [5.611060564629618]
本稿では,最初の大規模言語モデル(LLM)を用いた自動VLSI設計フローチューニングフレームワークであるCROPを提案する。
提案手法は,(1)RTLソースコードを高密度ベクトル表現に変換するスケーラブルな手法,(2)意味的に類似した回路と設計をマッチングする埋め込み型検索システム,(3)検索強化型LLM誘導パラメータ探索システムを含む。
実験の結果、CROPのQoR(Quality-of-Results)の能力は、工業設計における既存のアプローチよりも少ないイテレーションで達成され、消費電力は9.9%削減された。
論文 参考訳(メタデータ) (2025-07-02T20:25:47Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。