論文の概要: VeriAgent: A Tool-Integrated Multi-Agent System with Evolving Memory for PPA-Aware RTL Code Generation
- arxiv url: http://arxiv.org/abs/2603.17613v1
- Date: Wed, 18 Mar 2026 11:25:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.666651
- Title: VeriAgent: A Tool-Integrated Multi-Agent System with Evolving Memory for PPA-Aware RTL Code Generation
- Title(参考訳): VeriAgent: PPA対応RTLコード生成のためのメモリを進化させるツール付きマルチエージェントシステム
- Authors: Yaoxiang Wang, Qi Shi, ShangZhan Li, Qingguo Hu, Xinyu Yin, Bo Guo, Xu Han, Maosong Sun, Jinsong Su,
- Abstract要約: 高品質なベリログコード生成のためのPPA対応ツール統合マルチエージェントフレームワークを提案する。
当社のフレームワークでは,EDAツールをtextitProgrammer Agent, textitCorrectness Agent, textitPPA Agentで構成されるクローズドループワークフローに明示的に組み込んでいる。
モデル再トレーニングなしに継続的な改善をサポートするために,構造化メモリノードに最適化エクスペリエンスを外部化するtextitEvolved Memory Mechanismを導入する。
- 参考スコア(独自算出の注目度): 52.43796056267479
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLMs have recently demonstrated strong capabilities in automatic RTL code generation, achieving high syntactic and functional correctness. However, most methods focus on functional correctness while overlooking critical physical design objectives, including Power, Performance, and Area. In this work, we propose a PPA-aware, tool-integrated multi-agent framework for high-quality verilog code generation. Our framework explicitly incorporates EDA tools into a closed-loop workflow composed of a \textit{Programmer Agent}, a \textit{Correctness Agent}, and a \textit{PPA Agent}, enabling joint optimization of functional correctness and physical metrics. To support continuous improvement without model retraining, we introduce an \textit{Evolved Memory Mechanism} that externalizes optimization experience into structured memory nodes. A dedicated memory manager dynamically maintains the memory pool and allows the system to refine strategies based on historical execution trajectories. Extensive experiments demonstrate that our approach achieves strong functional correctness while delivering significant improvements in PPA metrics. By integrating tool-driven feedback with structured and evolvable memory, our framework transforms RTL generation from one-shot reasoning into a continual, feedback-driven optimization process, providing a scalable pathway for deploying LLMs in real-world hardware design flows.
- Abstract(参考訳): LLMは、最近、自動RTLコード生成において強力な機能を示し、高い構文的、機能的正当性を実現している。
しかし、ほとんどの手法は、パワー、パフォーマンス、エリアを含む重要な物理的設計目標を見越しながら、機能的正当性に焦点を当てている。
本研究では,高品質なベリログコード生成のためのPPA対応ツール統合マルチエージェントフレームワークを提案する。
本フレームワークでは,EDAツールを,機能的正しさと物理メトリクスを協調的に最適化可能な,‘textit{Programmer Agent}’,‘textit{Correctness Agent}’,‘textit{PPA Agent}’で構成されたクローズドループワークフローに明示的に組み込む。
モデル再トレーニングなしに継続的改善をサポートするために,構造化メモリノードに最適化エクスペリエンスを外部化する,‘textit{Evolved Memory Mechanism’を導入する。
専用メモリマネージャは、メモリプールを動的に維持し、履歴的な実行軌跡に基づいて戦略を洗練させる。
大規模な実験により,本手法はPPAの指標を大幅に改善しながら,強い機能的正当性を実現することが示された。
ツール駆動のフィードバックを構造化および進化可能なメモリと統合することにより、我々のフレームワークは、RTL生成をワンショット推論から連続的なフィードバック駆動最適化プロセスに変換し、現実のハードウェア設計フローにLSMをデプロイするためのスケーラブルな経路を提供する。
関連論文リスト
- PerfGuard: A Performance-Aware Agent for Visual Content Generation [53.591105729011595]
PerfGuardは、ビジュアルコンテンツ生成のためのパフォーマンス対応のエージェントフレームワークである。
ツールのパフォーマンス境界をタスク計画とスケジューリングに統合する。
ツール選択の正確性、実行の信頼性、ユーザの意図との整合性にメリットがあります。
論文 参考訳(メタデータ) (2026-01-30T05:12:19Z) - Improving Language Agents through BREW [7.098644778864677]
大規模言語モデル(LLM)ベースのエージェントは、構造化推論、ツールの使用、環境適応を必要とするタスクにますます適用される。
PPOやGRPOのようなモデルウェイト最適化手法の現在の訓練パラダイムは、ロールアウト収束の計算オーバーヘッドが高いため、比較的実用的ではない。
本稿では,下流タスクのエージェント最適化のためのフレームワークであるBREWを紹介する。
論文 参考訳(メタデータ) (2025-11-25T13:34:54Z) - Sample-Efficient Online Learning in LM Agents via Hindsight Trajectory Rewriting [92.57796055887995]
本稿では,言語モデルエージェントの強化学習から後視体験のリプレイに適応するプロンプトフレームワークECHOを紹介する。
ECHOは失敗した試みで達成できた代替目標のために最適化された軌道を生成する。
我々は、テキストベースのナビゲーションと計画ベンチマークであるXMiniGridのステートフルバージョンと、協調的な情報収集企業シミュレーションであるPeopleJoinQAについて、ECHOを評価した。
論文 参考訳(メタデータ) (2025-10-11T18:11:09Z) - Intrinsic Memory Agents: Heterogeneous Multi-Agent LLM Systems through Structured Contextual Memory [3.8482387279540555]
LLM(Large Language Models)上に構築されたマルチエージェントシステムは、複雑な協調的な問題解決に非常に有望である。
しかし、それらは、メモリの一貫性を損なうコンテキストウィンドウの制限、役割の順守、手続き的整合性といった根本的な課題に直面します。
本稿では,エージェント固有のメモリを通じて,これらの制限に対処する新しいフレームワークであるIntrinsic Memory Agentsを紹介する。
論文 参考訳(メタデータ) (2025-08-12T15:05:00Z) - Feedback-Driven Tool-Use Improvements in Large Language Models via Automated Build Environments [70.42705564227548]
大規模言語モデル(LLM)のための環境自動構築パイプラインを提案する。
これにより、外部ツールに頼ることなく、詳細な測定可能なフィードバックを提供する高品質なトレーニング環境の作成が可能になる。
また、ツール使用の精度とタスク実行の完全性の両方を評価する検証可能な報酬機構も導入する。
論文 参考訳(メタデータ) (2025-08-12T09:45:19Z) - ChipSeek-R1: Generating Human-Surpassing RTL with LLM via Hierarchical Reward-Driven Reinforcement Learning [32.11086992218369]
ChipSeek-R1は、大規模な言語モデルのための階層的な報酬駆動強化学習フレームワークである。
関数的正当性とPPA最適化の両方のRTLコードを生成する。
RTLLMのベンチマークでは、ChipSeek-R1はオリジナルの人間の書いたコードのPPAメトリクスを超える27のRTL設計を作成した。
論文 参考訳(メタデータ) (2025-07-07T08:08:20Z) - ORFS-agent: Tool-Using Agents for Chip Design Optimization [0.8088986164437757]
大規模言語モデル(LLM)は、このような高次元最適化タスク内で学習と推論を行う新しい機会を提供する。
LLMをベースとした反復最適化エージェントORFS-agentを導入し,パラメータチューニングをオープンソースのハードウェア設計フローで自動化する。
2つの異なる技術ノードと様々な回路ベンチマークに関する実証的な評価は、ORFSエージェントがルーティングされたワイヤ長と有効クロック期間の両方を13%以上改善できることを示している。
論文 参考訳(メタデータ) (2025-06-10T01:38:57Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。