論文の概要: REvolution: An Evolutionary Framework for RTL Generation driven by Large Language Models
- arxiv url: http://arxiv.org/abs/2510.21407v1
- Date: Fri, 24 Oct 2025 12:50:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-27 15:45:42.331619
- Title: REvolution: An Evolutionary Framework for RTL Generation driven by Large Language Models
- Title(参考訳): Revolution: 大規模言語モデルによって駆動されるRTL生成のための進化的フレームワーク
- Authors: Kyungjun Min, Kyumin Cho, Junhwan Jang, Seokhyeong Kang,
- Abstract要約: LLM(Large Language Models)は、レジスター-トランスファーレベル(RTL)コード生成に使用される。
本稿では,進化計算(EC)とLLMを組み合わせて自動RTL生成と最適化を行うフレームワークであるRevolutionを紹介する。
- 参考スコア(独自算出の注目度): 2.127921199213507
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large Language Models (LLMs) are used for Register-Transfer Level (RTL) code generation, but they face two main challenges: functional correctness and Power, Performance, and Area (PPA) optimization. Iterative, feedback-based methods partially address these, but they are limited to local search, hindering the discovery of a global optimum. This paper introduces REvolution, a framework that combines Evolutionary Computation (EC) with LLMs for automatic RTL generation and optimization. REvolution evolves a population of candidates in parallel, each defined by a design strategy, RTL implementation, and evaluation feedback. The framework includes a dual-population algorithm that divides candidates into Fail and Success groups for bug fixing and PPA optimization, respectively. An adaptive mechanism further improves search efficiency by dynamically adjusting the selection probability of each prompt strategy according to its success rate. Experiments on the VerilogEval and RTLLM benchmarks show that REvolution increased the initial pass rate of various LLMs by up to 24.0 percentage points. The DeepSeek-V3 model achieved a final pass rate of 95.5\%, comparable to state-of-the-art results, without the need for separate training or domain-specific tools. Additionally, the generated RTL designs showed significant PPA improvements over reference designs. This work introduces a new RTL design approach by combining LLMs' generative capabilities with EC's broad search power, overcoming the local-search limitations of previous methods.
- Abstract(参考訳): 大きな言語モデル(LLM)はレジスター-トランスファーレベル(RTL)コード生成に使用されるが、機能的正しさとパワー、パフォーマンス、エリア(PPA)最適化という2つの大きな課題に直面している。
反復的なフィードバックに基づく手法はこれらに部分的に対処するが、局所探索に限られており、グローバルな最適化の発見を妨げる。
本稿では,進化計算(EC)とLLMを組み合わせて自動RTL生成と最適化を行うフレームワークであるRevolutionを紹介する。
Revolutionは、設計戦略、RTL実装、評価フィードバックによって定義された、複数の候補を並行して進化させる。
このフレームワークには、脆弱性修正とPPA最適化のために、候補をFailグループとSuccessグループに分割するデュアルポピュレーションアルゴリズムが含まれている。
適応機構は、その成功率に応じて各プロンプト戦略の選択確率を動的に調整することにより、探索効率をさらに向上する。
VerilogEval と RTLLM ベンチマークの実験では、Revolution は様々な LLM の初期通過率を 24.0 ポイントまで向上させた。
DeepSeek-V3モデルは、個別のトレーニングやドメイン固有のツールを必要とせず、最先端の結果に匹敵する95.5\%のパスレートを達成した。
さらに、生成されたRTL設計は参照設計よりもPPAが大幅に改善された。
本研究は,LLMの生成能力とECの広い探索能力を組み合わせた新しいRTL設計手法を導入し,従来の手法の局所探索限界を克服した。
関連論文リスト
- Game-Theoretic Co-Evolution for LLM-Based Heuristic Discovery [37.96481049421407]
大規模言語モデル(LLM)は、自動発見の急速な進歩を可能にした。
本稿では,発見を問題解決者とインスタンスジェネレータのプログラムレベルの共進化として再編成するゲーム理論フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-30T12:14:52Z) - TL-GRPO: Turn-Level RL for Reasoning-Guided Iterative Optimization [97.18886232580131]
大規模言語モデルは、ツール統合による複雑なタスクにおいて強力な推論能力を示している。
そこで我々はターンレベルグループサンプリングを行う軽量RLアルゴリズムであるTurn-Level GRPOを提案する。
論文 参考訳(メタデータ) (2026-01-23T06:21:33Z) - Rethinking LLM-Driven Heuristic Design: Generating Efficient and Specialized Solvers via Dynamics-Aware Optimization [21.449921296295884]
本研究では,コンバージェンス・アウェア・ヒューリスティックス(DASH, Dynamics-Aware Heuristics)を提案する。
DASHは、さまざまな問題スケールにわたる最先端のベースラインのソリューション品質を越えながら、ランタイム効率を3倍以上改善します。
論文 参考訳(メタデータ) (2026-01-14T05:06:42Z) - LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.35609820607923]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - Direct Retrieval-augmented Optimization: Synergizing Knowledge Selection and Language Models [83.8639566087953]
本稿では,2つの主要コンポーネントのエンドツーエンドトレーニングを可能にするDROという,直接検索拡張最適化フレームワークを提案する。
DROは、 (i) 文書置換推定と (ii) 再重み付けされ、段階的に改善されたRAGコンポーネントの2つのフェーズの間で交代する。
理論解析により,DROは強化学習における政策段階的な手法に類似していることが明らかとなった。
論文 参考訳(メタデータ) (2025-05-05T23:54:53Z) - Evolutionary Large Language Model for Automated Feature Transformation [44.64296052383581]
自動特徴変換のための進化的Large Language Model (LLM) フレームワークを提案する。
本フレームワークは,1)RLデータコレクタによるマルチポピュレーションデータベースの構築,2)大規模言語モデル(LLM)のシーケンス理解能力を活用した2つの部分から構成される。
提案手法の有効性と汎用性を実証的に示す。
論文 参考訳(メタデータ) (2024-05-25T12:27:21Z) - REBEL: Reinforcement Learning via Regressing Relative Rewards [59.68420022466047]
生成モデルの時代における最小限のRLアルゴリズムであるREBELを提案する。
理論的には、自然ポリシーグラディエントのような基本的なRLアルゴリズムはREBELの変種と見なすことができる。
我々はREBELが言語モデリングと画像生成に一貫したアプローチを提供し、PPOやDPOとより強くあるいは類似した性能を実現することを発見した。
論文 参考訳(メタデータ) (2024-04-25T17:20:45Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
グラディエントにインスパイアされた Prompt ベースの GPO を開発した。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。