論文の概要: VeriMoA: A Mixture-of-Agents Framework for Spec-to-HDL Generation
- arxiv url: http://arxiv.org/abs/2510.27617v1
- Date: Fri, 31 Oct 2025 16:40:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.169596
- Title: VeriMoA: A Mixture-of-Agents Framework for Spec-to-HDL Generation
- Title(参考訳): VeriMoA:Spec-to-HDL生成のためのMixture-of-Agentsフレームワーク
- Authors: Heng Ping, Arijit Bhattacharjee, Peiyu Zhang, Shixuan Li, Wei Yang, Anzhe Cheng, Xiaole Zhang, Jesse Thomason, Ali Jannesari, Nesreen Ahmed, Paul Bogdan,
- Abstract要約: 大きな言語モデル(LLM)はハードウェア記述言語(HDL)の生成を約束するが、パラメトリック知識の制限とドメイン固有の制約のために困難に直面している。
We propose VeriMoA, a training-free mixed-of-agents framework with two synergistic innovations。
- 参考スコア(独自算出の注目度): 22.276878955961504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automation of Register Transfer Level (RTL) design can help developers meet increasing computational demands. Large Language Models (LLMs) show promise for Hardware Description Language (HDL) generation, but face challenges due to limited parametric knowledge and domain-specific constraints. While prompt engineering and fine-tuning have limitations in knowledge coverage and training costs, multi-agent architectures offer a training-free paradigm to enhance reasoning through collaborative generation. However, current multi-agent approaches suffer from two critical deficiencies: susceptibility to noise propagation and constrained reasoning space exploration. We propose VeriMoA, a training-free mixture-of-agents (MoA) framework with two synergistic innovations. First, a quality-guided caching mechanism to maintain all intermediate HDL outputs and enables quality-based ranking and selection across the entire generation process, encouraging knowledge accumulation over layers of reasoning. Second, a multi-path generation strategy that leverages C++ and Python as intermediate representations, decomposing specification-to-HDL translation into two-stage processes that exploit LLM fluency in high-resource languages while promoting solution diversity. Comprehensive experiments on VerilogEval 2.0 and RTLLM 2.0 benchmarks demonstrate that VeriMoA achieves 15--30% improvements in Pass@1 across diverse LLM backbones, especially enabling smaller models to match larger models and fine-tuned alternatives without requiring costly training.
- Abstract(参考訳): レジスタ転送レベル(RTL)設計の自動化は、開発者が増大する計算要求を満たすのに役立つ。
大きな言語モデル(LLM)はハードウェア記述言語(HDL)の生成を約束するが、パラメトリック知識の制限とドメイン固有の制約のために困難に直面している。
素早いエンジニアリングと微調整は知識カバレッジとトレーニングコストに制限があるが、マルチエージェントアーキテクチャは、協調生成による推論を強化するためのトレーニング不要のパラダイムを提供する。
しかし、現在のマルチエージェントアプローチはノイズ伝搬に対する感受性と制約付き推論空間探索の2つの重大な欠陥に悩まされている。
We propose VeriMoA, a training-free Mixed-of-Adnts (MoA) framework with two synergistic innovations。
第一に、すべての中間HDL出力を維持し、生成プロセス全体にわたって品質ベースのランキングと選択を可能にし、推論の層に知識が蓄積することを奨励する品質誘導キャッシング機構である。
第二に、C++とPythonを中間表現として活用するマルチパス生成戦略で、仕様からHDLへの変換を2段階のプロセスに分解し、高リソース言語におけるLCMの流速を利用して、ソリューションの多様性を促進します。
VerilogEval 2.0とRTLLM 2.0ベンチマークに関する総合的な実験は、VeriMoAが様々なLCMバックボーンでPass@1を15~30%改善したことを示している。
関連論文リスト
- OmniBridge: Unified Multimodal Understanding, Generation, and Retrieval via Latent Space Alignment [79.98946571424607]
我々は,統一アーキテクチャ内での視覚言語理解,生成,検索をサポートする統一フレームワークであるOmniBridgeを提案する。
タスク干渉の課題に対処するために,2段階の非結合型トレーニング戦略を提案する。
実験によると、OmniBridgeは3つのタスクすべてで、競争力や最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-09-23T13:57:55Z) - BcQLM: Efficient Vision-Language Understanding with Distilled Q-Gated Cross-Modal Fusion [6.8723394189831035]
大規模言語モデルは、リソース制約のある環境でのデプロイメントに挑戦する。
本稿では,エンドツーエンドの視覚的質問応答のための軽量MLLMフレームワークを提案する。
提案手法は,効率的なマルチモーダル理解のために最適化されたコンパクトだが強力な視覚言語である BreezeCLIP を中心にしている。
論文 参考訳(メタデータ) (2025-09-10T16:09:49Z) - Exploiting Mixture-of-Experts Redundancy Unlocks Multimodal Generative Abilities [69.26544016976396]
我々は、新しいモダリティを学ぶための追加能力の源として、Mixture-of-Experts(MoEs)内の冗長性を利用する。
我々は、新しいモダリティのトークンのみに低ランク適応を適用することで、オリジナルの言語生成能力を保ちます。
論文 参考訳(メタデータ) (2025-03-28T15:21:24Z) - HDLCoRe: A Training-Free Framework for Mitigating Hallucinations in LLM-Generated HDL [8.078194378107936]
HDLCoReは、大規模言語モデルのHDL生成能力を向上する、トレーニング不要のフレームワークである。
本フレームワークはRTLLM2.0ベンチマークにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2025-03-18T07:09:39Z) - ARMOR: Empowering Multimodal Understanding Model with Interleaved Multimodal Generation Capability [14.703591553247948]
ARMORは、マルチモーダルな大規模言語モデルのためのリソース効率が高く純粋な自動回帰フレームワークである。
既存のMLLMを微調整することで、理解と生成を両立させる。
ARMOR は,既存の MLLM を UniM にアップグレードし,将来性のある画像生成機能を実現する。
論文 参考訳(メタデータ) (2025-03-09T10:15:39Z) - Liquid: Language Models are Scalable and Unified Multi-modal Generators [112.71734051183726]
Liquidは視覚的理解と生成をシームレスに統合する自動回帰生成パラダイムである。
従来のマルチモーダルな大言語モデル(MLLM)とは異なり、Liquidは単一の大言語モデルを用いてこの統合を実現する。
初めてLiquidは、ビジュアルタスクと言語タスクの統一トレーニングによって必然的にパフォーマンスが低下する、スケーリングの法則を明らかにした。
論文 参考訳(メタデータ) (2024-12-05T16:48:16Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - NVLM: Open Frontier-Class Multimodal LLMs [64.00053046838225]
NVLM 1.0は、フロンティアクラスのマルチモーダル言語モデル(LLM)のファミリーであり、視覚言語タスクの最先端結果を実現する。
トレーニング効率とマルチモーダル推論能力を両立させる新しいアーキテクチャを提案する。
我々は、NVLM-1.0モデルのための生産級マルチモーダリティを開発し、視覚言語タスクに優れる。
論文 参考訳(メタデータ) (2024-09-17T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。