論文の概要: CODMAS: A Dialectic Multi-Agent Collaborative Framework for Structured RTL Optimization
- arxiv url: http://arxiv.org/abs/2603.17204v1
- Date: Tue, 17 Mar 2026 23:10:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.438501
- Title: CODMAS: A Dialectic Multi-Agent Collaborative Framework for Structured RTL Optimization
- Title(参考訳): CODMAS:構造化RTL最適化のための多言語協調フレームワーク
- Authors: Che-Ming Chang, Prashanth Vijayaraghavan, Ashutosh Jadhav, Charles Mackin, Vandana Mukherjee, Hsinyu Tsai, Ehsan Degan,
- Abstract要約: CODMASは、構造化弁証法とドメイン認識コード生成と決定論的評価を組み合わせたフレームワークである。
120のVerilogトリプル(最適化されていない、最適化された、テストベンチ)のベンチマークであるRTLOPTを導入し、パイプライン化とクロックゲーティング変換を行った。
- 参考スコア(独自算出の注目度): 5.592208774984063
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Optimizing Register Transfer Level (RTL) code is a critical step in Electronic Design Automation (EDA) for improving power, performance, and area (PPA). We present CODMAS (Collaborative Optimization via a Dialectic Multi-Agent System), a framework that combines structured dialectic reasoning with domain-aware code generation and deterministic evaluation to automate RTL optimization. At the core of CODMAS are two dialectic agents: the Articulator, inspired by rubber-duck debugging, which articulates stepwise transformation plans and exposes latent assumptions; and the Hypothesis Partner, which predicts outcomes and reconciles deviations between expected and actual behavior to guide targeted refinements. These agents direct a Domain-Specific Coding Agent (DCA) to generate architecture-aware Verilog edits and a Code Evaluation Agent (CEA) to verify syntax, functionality, and PPA metrics. We introduce RTLOPT, a benchmark of 120 Verilog triples (unoptimized, optimized, testbench) for pipelining and clock-gating transformations. Across proprietary and open LLMs, CODMAS achieves ~25% reduction in critical path delay for pipelining and ~22% power reduction for clock gating, while reducing functional and compilation failures compared to strong prompting and agentic baselines. These results demonstrate that structured multi-agent reasoning can significantly enhance automated RTL optimization and scale to more complex designs and broader optimization tasks.
- Abstract(参考訳): レジスタ転送レベル(RTL)コードの最適化は、電力、性能、面積を改善するための電子設計自動化(EDA)の重要なステップである。
我々は,構造化弁証法とドメイン認識コード生成を組み合わせたフレームワークであるCODMAS(Collaborative Optimization via a Dialectic Multi-Agent System)について述べる。
CODMASのコアには、2つの弁証的エージェントがある:Articulatorはゴムダックのデバッグにインスパイアされ、段階的に計画が変更され、潜在仮定が露呈する。
これらのエージェントはドメイン特化コーディングエージェント(DCA)にアーキテクチャ対応のVerilog編集の生成を指示し、コード評価エージェント(CEA)に構文、機能、PPAメトリクスの検証を指示する。
120のVerilogトリプル(最適化されていない、最適化された、テストベンチ)のベンチマークであるRTLOPTを導入し、パイプライン化とクロックゲーティング変換を行った。
プロプライエタリでオープンなLCM全体で、CODMASはパイプライニングのクリティカルパス遅延を約25%削減し、クロックゲーティングの消費電力を約22%削減し、強いプロンプトやエージェントベースラインに比べて機能的およびコンパイル上の障害を低減した。
これらの結果は、構造化マルチエージェント推論により、より複雑な設計やより広範な最適化タスクに自動化されたRTL最適化とスケールを大幅に向上させることができることを示している。
関連論文リスト
- VeriAgent: A Tool-Integrated Multi-Agent System with Evolving Memory for PPA-Aware RTL Code Generation [52.43796056267479]
高品質なベリログコード生成のためのPPA対応ツール統合マルチエージェントフレームワークを提案する。
当社のフレームワークでは,EDAツールをtextitProgrammer Agent, textitCorrectness Agent, textitPPA Agentで構成されるクローズドループワークフローに明示的に組み込んでいる。
モデル再トレーニングなしに継続的な改善をサポートするために,構造化メモリノードに最適化エクスペリエンスを外部化するtextitEvolved Memory Mechanismを導入する。
論文 参考訳(メタデータ) (2026-03-18T11:25:40Z) - Understanding by Reconstruction: Reversing the Software Development Process for LLM Pretraining [66.89012795621349]
大規模言語モデル(LLM)は、複雑なソフトウェア工学に必要な、深く、長期にわたる推論に苦しむことが多い。
本稿では,再構築による理解という,新しいパラダイムを提案する。
マルチエージェントシミュレーションを用いて潜在エージェント軌道を合成するフレームワークを提案する。
論文 参考訳(メタデータ) (2026-03-11T09:23:20Z) - VeRO: An Evaluation Harness for Agents to Optimize Agents [5.227525836910522]
我々は、バージョン管理されたエージェントスナップショット、予算管理された評価、構造化された実行トレースを備えた再現可能な評価手法であるVERO(Versioning, Rewards, Observations)を紹介する。
本研究では,ターゲットエージェントの比較実験を行い,どの修正がターゲットエージェントの性能を確実に向上させるか分析する。
論文 参考訳(メタデータ) (2026-02-25T23:40:22Z) - ComAgent: Multi-LLM based Agentic AI Empowered Intelligent Wireless Networks [62.031889234230725]
6Gネットワークは複雑な層間最適化に依存している。
数学の定式化に高レベルの意図を手動で翻訳することは、まだボトルネックである。
我々はマルチLLMエージェントAIフレームワークであるComAgentを紹介する。
論文 参考訳(メタデータ) (2026-01-27T13:43:59Z) - A New Benchmark for the Appropriate Evaluation of RTL Code Optimization [11.115027718178759]
この研究は、RTL最適化における大規模言語モデル(LLM)の能力を評価するベンチマークであるRTL-OPTを導入する。
各タスクは、業界で実証された最適化パターンを反映した、一対のRTLコード、準最適バージョン、人間に最適化された参照を提供する。
さらに、RTL-OPTは自動評価フレームワークを統合し、機能的正当性を検証し、改善を定量化する。
論文 参考訳(メタデータ) (2026-01-05T03:47:26Z) - REASONING COMPILER: LLM-Guided Optimizations for Efficient Model Serving [6.19179006129561]
本稿では,逐次的かつコンテキスト対応な意思決定プロセスとして最適化を定式化する,新しいコンパイルフレームワーク(Dubbed Reasoning)を提案する。
提案手法は,LLM誘導推論がコンパイラ最適化のランドスケープを変革する可能性を示す。
論文 参考訳(メタデータ) (2025-06-02T07:02:46Z) - syftr: Pareto-Optimal Generative AI [40.80352098169579]
syftrはエージェントと非エージェントのRAG構成の広い領域で効率的な多目的探索を行うフレームワークである。
Syftrは、最も正確な流れの正確さを保ちながら、平均して9倍のコストで流れを見つける。
論文 参考訳(メタデータ) (2025-05-26T17:43:13Z) - ARCS: Agentic Retrieval-Augmented Code Synthesis with Iterative Refinement [1.980982378865332]
ARCSは凍結モデル上で、予算化された合成実行再生ループを介して動作する。
生成前に関連するコードコンテキストを検索し、候補を提案し、テストに対して実行し、実行フィードバックに基づいて修正する。
LANLの科学コーパスでは、ベースラインRAGよりも+0.115改良されている。
論文 参考訳(メタデータ) (2025-04-29T05:15:52Z) - DARS: Dynamic Action Re-Sampling to Enhance Coding Agent Performance by Adaptive Tree Traversal [55.13854171147104]
大規模言語モデル(LLM)は、自然言語処理、データ分析、ソフトウェア開発など、さまざまな領域に革命をもたらした。
符号化エージェントのための新しい推論時間計算スケーリングアプローチである動的アクション再サンプリング(DARS)を提案する。
我々は、SWE-Bench Liteベンチマークに対する我々のアプローチを評価し、このスケーリング戦略がClude 3.5 Sonnet V2で55%のパス@kスコアを達成したことを実証した。
論文 参考訳(メタデータ) (2025-03-18T14:02:59Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
グラディエントにインスパイアされた Prompt ベースの GPO を開発した。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。