論文の概要: Towards Optimal Circuit Generation: Multi-Agent Collaboration Meets Collective Intelligence
- arxiv url: http://arxiv.org/abs/2504.14625v3
- Date: Thu, 01 May 2025 03:43:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.711178
- Title: Towards Optimal Circuit Generation: Multi-Agent Collaboration Meets Collective Intelligence
- Title(参考訳): 最適回路生成に向けて : 集合知と多エージェント協調
- Authors: Haiyan Qin, Jiahao Feng, Xiaotong Feng, Wei W. Xing, Wang Kang,
- Abstract要約: 大規模言語モデル (LLM) はコード生成を変換しているが、ハードウェア設計におけるその応用は、人間の設計よりも38%から1075%高いゲート数を生成する。
本稿では,3つの重要なイノベーションを通じて,人間の競争効率を実現するマルチエージェントフレームワークであるCircuitMindを紹介する。
- 参考スコア(独自算出の注目度): 3.8189729729856534
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) have transformed code generation, yet their application in hardware design produces gate counts 38\%--1075\% higher than human designs. We present CircuitMind, a multi-agent framework that achieves human-competitive efficiency through three key innovations: syntax locking (constraining generation to basic logic gates), retrieval-augmented generation (enabling knowledge-driven design), and dual-reward optimization (balancing correctness with efficiency). To evaluate our approach, we introduce TC-Bench, the first gate-level benchmark harnessing collective intelligence from the TuringComplete ecosystem -- a competitive circuit design platform with hundreds of thousands of players. Experiments show CircuitMind enables 55.6\% of model implementations to match or exceed top-tier human experts in composite efficiency metrics. Most remarkably, our framework elevates the 14B Phi-4 model to outperform both GPT-4o mini and Gemini 2.0 Flash, achieving efficiency comparable to the top 25\% of human experts without requiring specialized training. These innovations establish a new paradigm for hardware optimization where collaborative AI systems leverage collective human expertise to achieve optimal circuit designs. Our model, data, and code are open-source at https://github.com/BUAA-CLab/CircuitMind.
- Abstract(参考訳): 大規模言語モデル (LLM) はコード生成を変換しているが、ハードウェア設計におけるその応用は、人間の設計よりも38\%--1075\%高いゲート数を生成する。
本稿では、構文ロック(基本論理ゲートへの制約生成)、検索強化(知識駆動型設計の導入)、二重逆最適化(効率と正しさのバランス)という3つの重要な革新を通じて、人間の競争効率を実現するマルチエージェントフレームワークであるCircuitMindを提案する。
このアプローチを評価するために、TuringCompleteエコシステムから集合インテリジェンスを活用する最初のゲートレベルのベンチマークであるTC-Benchを紹介した。
実験の結果、CircuitMindは55.6 %のモデル実装を、合成効率の指標で上位レベルの人間専門家と一致または上回ることを可能にする。
最も注目すべきは、14B Phi-4 モデルが GPT-4o mini と Gemini 2.0 Flash を上回り、特別なトレーニングを必要とせずに、トップ25%の人間専門家に匹敵する効率を達成することです。
これらのイノベーションはハードウェア最適化の新しいパラダイムを確立し、協調的なAIシステムは人間の専門知識を活用して最適な回路設計を実現する。
我々のモデル、データ、コードはhttps://github.com/BUAA-CLab/CircuitMind.comでオープンソース化されています。
関連論文リスト
- ReasoningV: Efficient Verilog Code Generation with Adaptive Hybrid Reasoning Model [7.798551697095774]
ReasoningVは、訓練された内在能力と動的推論適応を統合した、Verilogコード生成のための新しいモデルである。
ReasoningV-5Kは5,000個の機能検証済みインスタンスの高品質なデータセットで、PiraNetサンプルの多次元フィルタリングによる推論パスを生成する。
VerilogEval- humanに対するパス@1精度57.8%のReasoningVの有効性を示す実験結果が得られた。
論文 参考訳(メタデータ) (2025-04-20T10:16:59Z) - Weak-for-Strong: Training Weak Meta-Agent to Harness Strong Executors [104.5401871607713]
本稿では、より小型でコスト効率の良い言語モデルをカスタマイズし、より強力なモデルを利用するための設計と最適化を行う新しいフレームワークであるWeakfor-Strong Harnessing (W4S)を提案する。
W4Sはマルチターンマルコフ決定プロセスとして設計を定式化し、エージェントワークフロー最適化のための強化学習を導入する。
経験的な結果から、GPU時間でトレーニングされた7Bメタエージェントは、11ベンチマークで2.9%、最強のベースラインを2.9%上回るW4Sの優位性を示している。
論文 参考訳(メタデータ) (2025-04-07T07:27:31Z) - Systems and Algorithms for Convolutional Multi-Hybrid Language Models at Scale [68.6602625868888]
本稿では,2つの簡単な観測に基づいて,畳み込み型マルチハイブリッドアーキテクチャを提案する。
ハイブリッドモデルのオペレータは、インコンテキストリコール、マルチトークンリコール、圧縮などのトークン操作タスクにカスタマイズできる。
我々は、最適化されたトランスフォーマーの1.2倍から2.9倍、以前の世代のハイブリッドの1.1倍から1.4倍の速さでエンドツーエンドを訓練する。
論文 参考訳(メタデータ) (2025-02-25T19:47:20Z) - LEDRO: LLM-Enhanced Design Space Reduction and Optimization for Analog Circuits [5.055279645400405]
アナログ回路サイズの設計空間を反復的に洗練する最適化手法とともに,Large Language Models (LLMs) を用いたLEDROを導入する。
LEDROは、他のRLやBOベースラインと比較して非常に一般化可能であり、異なるトポロジや技術ノードの設計アノテーションやモデルトレーニングは不要である。
結果,LEDROは平均13%のFoM改善,2.15倍のOp-Amp,48%のFoM改善,1.7倍のOp-Ampを向上した。
論文 参考訳(メタデータ) (2024-11-19T23:43:25Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - SOEN-101: Code Generation by Emulating Software Process Models Using Large Language Model Agents [50.82665351100067]
FlowGenは、複数のLarge Language Model (LLM)エージェントに基づいたソフトウェアプロセスモデルをエミュレートするコード生成フレームワークである。
FlowGenScrumをHumanEval、HumanEval-ET、MBPP、MBPP-ETの4つのベンチマークで評価した。
論文 参考訳(メタデータ) (2024-03-23T14:04:48Z) - An Empirical Study of Multimodal Model Merging [148.48412442848795]
モデルマージは、異なるタスクでトレーニングされた複数のモデルを融合してマルチタスクソリューションを生成するテクニックである。
我々は、モダリティ固有のアーキテクチャのビジョン、言語、およびクロスモーダルトランスフォーマーをマージできる新しい目標に向けて研究を行っている。
本稿では,重み間の距離を推定し,マージ結果の指標となる2つの指標を提案する。
論文 参考訳(メタデータ) (2023-04-28T15:43:21Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。