論文の概要: REvolution: An Evolutionary Framework for RTL Generation driven by Large Language Models
- arxiv url: http://arxiv.org/abs/2510.21407v1
- Date: Fri, 24 Oct 2025 12:50:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-27 15:45:42.331619
- Title: REvolution: An Evolutionary Framework for RTL Generation driven by Large Language Models
- Title(参考訳): Revolution: 大規模言語モデルによって駆動されるRTL生成のための進化的フレームワーク
- Authors: Kyungjun Min, Kyumin Cho, Junhwan Jang, Seokhyeong Kang,
- Abstract要約: LLM(Large Language Models)は、レジスター-トランスファーレベル(RTL)コード生成に使用される。
本稿では,進化計算(EC)とLLMを組み合わせて自動RTL生成と最適化を行うフレームワークであるRevolutionを紹介する。
- 参考スコア(独自算出の注目度): 2.127921199213507
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large Language Models (LLMs) are used for Register-Transfer Level (RTL) code generation, but they face two main challenges: functional correctness and Power, Performance, and Area (PPA) optimization. Iterative, feedback-based methods partially address these, but they are limited to local search, hindering the discovery of a global optimum. This paper introduces REvolution, a framework that combines Evolutionary Computation (EC) with LLMs for automatic RTL generation and optimization. REvolution evolves a population of candidates in parallel, each defined by a design strategy, RTL implementation, and evaluation feedback. The framework includes a dual-population algorithm that divides candidates into Fail and Success groups for bug fixing and PPA optimization, respectively. An adaptive mechanism further improves search efficiency by dynamically adjusting the selection probability of each prompt strategy according to its success rate. Experiments on the VerilogEval and RTLLM benchmarks show that REvolution increased the initial pass rate of various LLMs by up to 24.0 percentage points. The DeepSeek-V3 model achieved a final pass rate of 95.5\%, comparable to state-of-the-art results, without the need for separate training or domain-specific tools. Additionally, the generated RTL designs showed significant PPA improvements over reference designs. This work introduces a new RTL design approach by combining LLMs' generative capabilities with EC's broad search power, overcoming the local-search limitations of previous methods.
- Abstract(参考訳): 大きな言語モデル(LLM)はレジスター-トランスファーレベル(RTL)コード生成に使用されるが、機能的正しさとパワー、パフォーマンス、エリア(PPA)最適化という2つの大きな課題に直面している。
反復的なフィードバックに基づく手法はこれらに部分的に対処するが、局所探索に限られており、グローバルな最適化の発見を妨げる。
本稿では,進化計算(EC)とLLMを組み合わせて自動RTL生成と最適化を行うフレームワークであるRevolutionを紹介する。
Revolutionは、設計戦略、RTL実装、評価フィードバックによって定義された、複数の候補を並行して進化させる。
このフレームワークには、脆弱性修正とPPA最適化のために、候補をFailグループとSuccessグループに分割するデュアルポピュレーションアルゴリズムが含まれている。
適応機構は、その成功率に応じて各プロンプト戦略の選択確率を動的に調整することにより、探索効率をさらに向上する。
VerilogEval と RTLLM ベンチマークの実験では、Revolution は様々な LLM の初期通過率を 24.0 ポイントまで向上させた。
DeepSeek-V3モデルは、個別のトレーニングやドメイン固有のツールを必要とせず、最先端の結果に匹敵する95.5\%のパスレートを達成した。
さらに、生成されたRTL設計は参照設計よりもPPAが大幅に改善された。
本研究は,LLMの生成能力とECの広い探索能力を組み合わせた新しいRTL設計手法を導入し,従来の手法の局所探索限界を克服した。
関連論文リスト
- Direct Retrieval-augmented Optimization: Synergizing Knowledge Selection and Language Models [83.8639566087953]
本稿では,2つの主要コンポーネントのエンドツーエンドトレーニングを可能にするDROという,直接検索拡張最適化フレームワークを提案する。
DROは、 (i) 文書置換推定と (ii) 再重み付けされ、段階的に改善されたRAGコンポーネントの2つのフェーズの間で交代する。
理論解析により,DROは強化学習における政策段階的な手法に類似していることが明らかとなった。
論文 参考訳(メタデータ) (2025-05-05T23:54:53Z) - Evolutionary Large Language Model for Automated Feature Transformation [44.64296052383581]
自動特徴変換のための進化的Large Language Model (LLM) フレームワークを提案する。
本フレームワークは,1)RLデータコレクタによるマルチポピュレーションデータベースの構築,2)大規模言語モデル(LLM)のシーケンス理解能力を活用した2つの部分から構成される。
提案手法の有効性と汎用性を実証的に示す。
論文 参考訳(メタデータ) (2024-05-25T12:27:21Z) - REBEL: Reinforcement Learning via Regressing Relative Rewards [59.68420022466047]
生成モデルの時代における最小限のRLアルゴリズムであるREBELを提案する。
理論的には、自然ポリシーグラディエントのような基本的なRLアルゴリズムはREBELの変種と見なすことができる。
我々はREBELが言語モデリングと画像生成に一貫したアプローチを提供し、PPOやDPOとより強くあるいは類似した性能を実現することを発見した。
論文 参考訳(メタデータ) (2024-04-25T17:20:45Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
グラディエントにインスパイアされた Prompt ベースの GPO を開発した。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。