論文の概要: ACE-RTL: When Agentic Context Evolution Meets RTL-Specialized LLMs
- arxiv url: http://arxiv.org/abs/2602.10218v1
- Date: Tue, 10 Feb 2026 19:09:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.240269
- Title: ACE-RTL: When Agentic Context Evolution Meets RTL-Specialized LLMs
- Title(参考訳): ACE-RTL: エージェントコンテキスト進化がRTL仕様のLLMと出会うとき
- Authors: Chenhui Deng, Zhongzhi Yu, Guan-Ting Liu, Nathaniel Pinckney, Haoxing Ren,
- Abstract要約: ACE-RTLは170万のRTLサンプルの大規模なデータセットに基づいて訓練されたRTL特化LDMを統合している。
Comprehensive Verilog Design Problems (CVDP)ベンチマークでは、ACE-RTLは14の競争基準よりも44.87%のパスレート改善を達成した。
- 参考スコア(独自算出の注目度): 12.204779627626273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in large language models (LLMs) have sparked growing interest in applying them to hardware design automation, particularly for accurate RTL code generation. Prior efforts follow two largely independent paths: (i) training domain-adapted RTL models to internalize hardware semantics, (ii) developing agentic systems that leverage frontier generic LLMs guided by simulation feedback. However, these two paths exhibit complementary strengths and weaknesses. In this work, we present ACE-RTL that unifies both directions through Agentic Context Evolution (ACE). ACE-RTL integrates an RTL-specialized LLM, trained on a large-scale dataset of 1.7 million RTL samples, with a frontier reasoning LLM through three synergistic components: the generator, reflector, and coordinator. These components iteratively refine RTL code toward functional correctness. We further introduce a parallel scaling strategy that significantly reduces the number of iterations required to reach correct solutions. On the Comprehensive Verilog Design Problems (CVDP) benchmark, ACE-RTL achieves up to a 44.87% pass rate improvement over 14 competitive baselines while requiring only four iterations on average.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、ハードウェア設計自動化、特に正確なRTLコード生成にそれらを適用することへの関心が高まっている。
以前の取り組みは、主に2つの独立した経路をたどる。
i) ハードウェアセマンティクスを内部化するドメイン適応RTLモデルをトレーニングする。
二 シミュレーションフィードバックにより導かれるフロンティアジェネリックLSMを利用するエージェントシステムの開発。
しかし、これら2つの経路は相補的な強みと弱みを示している。
本稿では,エージェントコンテキスト進化(ACE)を通して両方向を統一するACE-RTLを提案する。
ACE-RTLは170万のRTLサンプルからなる大規模なデータセットに基づいてトレーニングされたRTL特化LDMを統合し、ジェネレータ、リフレクタ、コーディネータの3つの相乗的コンポーネントを通してフロンティア推論LSMを使用する。
これらのコンポーネントは、関数的正確性に向けて反復的にRTLコードを洗練する。
さらに、正しいソリューションに到達するのに必要なイテレーションの数を大幅に削減する並列スケーリング戦略を導入します。
Comprehensive Verilog Design Problems (CVDP)ベンチマークでは、ACE-RTLは14の競争ベースラインに対して44.87%のパスレート改善を実現し、平均4回のイテレーションしか必要としない。
関連論文リスト
- MeltRTL: Multi-Expert LLMs with Inference-time Intervention for RTL Code Generation [0.0]
MeltRTLは、マルチエキスパートの注意と推論時間の介入を統合する新しいフレームワークである。
MeltRTLは、ベースモデルを再トレーニングすることなく、大きな言語モデル(LLM)の精度を大幅に改善する。
We evaluate MeltRTL on the VerilogEval benchmark, achieve 96% synthesizability and 60% functional correctness。
論文 参考訳(メタデータ) (2026-01-19T12:49:39Z) - Run, Ruminate, and Regulate: A Dual-process Thinking System for Vision-and-Language Navigation [52.11339614452127]
VLN(Vision-and-Language Navigation)は、エージェントが人間の指示に従って複雑な3D環境を動的に探索する必要がある。
近年の研究では、一般的な知識と一般的な推論能力から、大きな言語モデル(LLM)をVLNに活用する可能性を強調している。
本稿では、LLMの一般化機能とVLN固有の専門知識をゼロショットで統合する、R3と呼ばれる新しいデュアルプロセス思考フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-18T04:32:00Z) - REvolution: An Evolutionary Framework for RTL Generation driven by Large Language Models [2.127921199213507]
LLM(Large Language Models)は、レジスター-トランスファーレベル(RTL)コード生成に使用される。
本稿では,進化計算(EC)とLLMを組み合わせて自動RTL生成と最適化を行うフレームワークであるRevolutionを紹介する。
論文 参考訳(メタデータ) (2025-10-24T12:50:35Z) - AgentRL: Scaling Agentic Reinforcement Learning with a Multi-Turn, Multi-Task Framework [76.96794548655292]
大規模言語モデル(LLM)は、オンラインインタラクションを通じて学習できる汎用エージェントの構築への関心が高まっている。
マルチターンでLLMエージェントをトレーニングするために強化学習(RL)を適用することで、スケーラブルなインフラストラクチャと安定したトレーニングアルゴリズムが欠如しているため、マルチタスク設定は依然として困難である。
本稿では、スケーラブルなマルチターンマルチタスクエージェントRLトレーニングのためのAgentRLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-05T13:40:01Z) - VerlTool: Towards Holistic Agentic Reinforcement Learning with Tool Use [78.29315418819074]
VerlToolは、体系的な設計原則を通じて制限に対処する統一的でモジュール化されたフレームワークです。
我々のフレームワークはARLTをマルチターントラジェクトリとして定式化し、マルチモード観測トークン(テキスト/画像/ビデオ)を単一ターンRLVRパラダイムを超えて拡張する。
モジュール化されたプラグインアーキテクチャは、軽量Python定義のみを必要とする迅速なツール統合を可能にする。
論文 参考訳(メタデータ) (2025-09-01T01:45:18Z) - DeepRTL2: A Versatile Model for RTL-Related Tasks [10.44277146824812]
提案するDeepRTL2は,RTLに関連する生成タスクと埋め込みタスクの両方を統一する汎用大規模言語モデル(LLM)のファミリーである。
幅広いタスクに同時に取り組むことで、DeepRTL2は、EDAのさまざまな課題に対する包括的なソリューションを提供する最初のモデルである。
論文 参考訳(メタデータ) (2025-05-28T09:28:39Z) - RTLRepoCoder: Repository-Level RTL Code Completion through the Combination of Fine-Tuning and Retrieval Augmentation [6.428086269916113]
RTLRepoCoderは,レポジトリレベルのVerilogコード補完のために,特定の微調整および検索型拡張生成(RAG)を組み込んだ画期的なソリューションである。
提案手法は,GPT-4 および高度なドメイン固有 LLM の編集類似性および実行一致率を大幅に上回る,公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2025-04-11T09:04:50Z) - RTLSquad: Multi-Agent Based Interpretable RTL Design [3.1734541757969463]
LLM(Large Language Models)は、RTLコードの自動生成と最適化のための新しいアプローチを提供する。
そこで我々は,RTLSquadを提案する。RTLSquadは,RTLコード生成を解釈可能な新しいLLMベースマルチエージェントシステムである。
論文 参考訳(メタデータ) (2025-01-06T02:57:54Z) - An Embarrassingly Simple Approach for LLM with Strong ASR Capacity [56.30595787061546]
我々は,音声基礎エンコーダと大規模言語モデル(LLM)を用いて,音声処理の分野で最も重要な課題の1つを解決することに注力する。
最近の研究は、音声エンコーダの出力を時間的に圧縮したり、プロジェクタのモーダルアライメントに対処したり、LLMのパラメータ効率の良い微調整を利用するといった複雑な設計をしている。
そこで本研究では,市販の音声エンコーダLLMと,トレーニング可能な唯一の線形プロジェクタの単純な構成がASRタスクに適しているのに対して,繊細な設計は必要ないことを発見した。
論文 参考訳(メタデータ) (2024-02-13T23:25:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。