論文の概要: Design Conductor: An agent autonomously builds a 1.5 GHz Linux-capable RISC-V CPU
- arxiv url: http://arxiv.org/abs/2603.08716v1
- Date: Fri, 06 Feb 2026 18:05:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.486159
- Title: Design Conductor: An agent autonomously builds a 1.5 GHz Linux-capable RISC-V CPU
- Title(参考訳): Design Conductor: 1.5GHzのLinux対応RISC-V CPUを自律的に構築するエージェント
- Authors: The Verkor Team, Ravi Krishna, Suresh Krishna, David Chin,
- Abstract要約: デザインコンダクタ(DC)は、フロンティアモデルの能力を適用して半導体をエンドツーエンドに構築する自律エージェントである。
DCは1.48GHzのタイミングで完全なRISC-VCPUのマイクロアーキテクチャを複数構築することができた。
自律エージェントが仕様からGDSIIまで、完全に動作するCPUを構築したのは、これが初めてだ。
- 参考スコア(独自算出の注目度): 0.18581130088826078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Design Conductor (DC) is an autonomous agent which applies the capabilities of frontier models to build semiconductors end-to-end -- that is, from concept to verified, tape-out ready GDSII (layout CAD file). In 12 hours and fully autonomously, DC was able to build several micro-architecture variations of a complete RISC-V CPU (which we dub VerCore) that meet timing at 1.48 GHz (rv32i-zmmul; using the ASAP7 PDK), starting from a 219-word requirements document. The VerCore achieves a CoreMark score of 3261. For historical context, this is roughly equivalent to an Intel Celeron SU2300 from mid-2011 (which ran at 1.2 GHz). To our knowledge, this is the first time an autonomous agent has built a complete, working CPU from spec to GDSII. This report is organized as follows. We first review DC's design and its key components. We then describe the methodology that DC followed to build VerCore -- including RTL implementation, testbench implementation, frontend debugging, optimization to achieve timing closure, and interacting with backend tools. We review the key characteristics of the resulting VerCore. Finally, we highlight how frontier models could improve to better enable this application, and our lessons learned as to how chips will be built in the future enabled by the capabilities of systems like DC.
- Abstract(参考訳): デザインコンダクタ(DC)は、フロンティアモデルの機能を応用して、概念から検証済みのテープアウト可能なGDSII(レイアウトCADファイル)まで、半導体をエンドツーエンドに構築する自律エージェントである。
12時間と完全に自律的に、DCは完全なRISC-V CPU(VerCoreをダブした)のいくつかのマイクロアーキテクチャのバリエーションを構築し、そのタイミングは1.48GHz (rv32i-zmmul; ASAP7 PDK)で、219ワードの要求文書から始まった。
VerCoreはCoreMarkスコア3261を達成している。
歴史的文脈では、2011年中頃(1.2GHzで動作する)のIntel Celeron SU2300とほぼ同値である。
私たちの知る限り、自律エージェントが仕様からGDSIIまで、完全に動作するCPUを構築したのはこれが初めてです。
この報告書は次のようにまとめられている。
我々はまずDCの設計とその重要なコンポーネントについてレビューする。
RTL実装、testbench実装、フロントエンドデバッギング、タイミングのクロージャを実現する最適化、バックエンドツールとのインタラクションなどです。
We review the key characteristics of the result VerCore。
最後に、このアプリケーションを有効にするためにフロンティアモデルをどのように改善するかを強調し、DCのようなシステムの能力によって将来的にチップがどのように構築されるかについて学んだ教訓を強調します。
関連論文リスト
- StitchCUDA: An Automated Multi-Agents End-to-End GPU Programing Framework with Rubric-based Agentic Reinforcement Learning [26.264303471292845]
エンドツーエンドGPUプログラム生成のためのマルチエージェントフレームワークであるStitchCUDAを提案する。
実験の結果、StitchCUDAはエンドツーエンドのプログラミングタスクで100%近く成功し、マルチエージェントベースラインの1.72倍の高速化を実現している。
論文 参考訳(メタデータ) (2026-03-03T06:04:49Z) - CUDA Agent: Large-Scale Agentic RL for High-Performance CUDA Kernel Generation [51.72529978689561]
Agentは、カーネルの専門知識を3つのコンポーネントで開発する大規模なエージェント強化学習システムである。
AgentはKernelBench上で、トーチコンパイルよりも100%、100%、92%高速なレートを提供する。
論文 参考訳(メタデータ) (2026-02-27T18:58:05Z) - Outrunning LLM Cutoffs: A Live Kernel Crash Resolution Benchmark for All [57.23434868678603]
Live-kBenchは、新たに発見されたカーネルバグのエージェントをスクラップし、評価するセルフ進化ベンチマークの評価フレームワークである。
kEnvは、カーネルのコンパイル、実行、フィードバックのためのエージェントに依存しないクラッシュ解決環境である。
kEnvを用いて3つの最先端エージェントをベンチマークし、最初の試行で74%のクラッシュを解決したことを示す。
論文 参考訳(メタデータ) (2026-02-02T19:06:15Z) - VibeTensor: System Software for Deep Learning, Fully Generated by AI Agents [42.56489784841984]
実装の変更が生成され、エージェントが提案する差分として適用される。
アーキテクチャを説明し、システムの生成と検証に使用するワークフローを要約し、アーティファクトを評価する。
論文 参考訳(メタデータ) (2026-01-21T19:29:00Z) - ParaCodex: A Profiling-Guided Autonomous Coding Agent for Reliable Parallel Code Generation and Translation [5.103450268268085]
ParaCodexは、Codexベースのエージェントを自律的なOpenMPオフロードシステムに変換するHPCエンジニアリングワークフローである。
我々は、HeCBench, Rodinia, NAS上で、シリアルCPUカーネルからOpenMPオフロードカーネルへの変換を評価する。
我々は HeCBench 上の 3x と Rodinia 上の 5x の幾何平均スピードアップを達成し、全てのスイートにおいてゼロショットコーデックスベースラインを上回ります。
論文 参考訳(メタデータ) (2026-01-07T19:04:53Z) - Towards Closing the Performance Gap for Cryptographic Kernels Between CPUs and Specialized Hardware [0.07646713951724009]
我々は,x86 CPU用暗号カーネルをコア単位で最適化した実装を開発する。
マルチワード拡張(MQX)と呼ばれる小型AVX-512拡張を提案する。
MQXはASICに対するスローダウンを1つのCPUコアで35倍に削減する。
論文 参考訳(メタデータ) (2025-09-15T22:35:00Z) - Characterizing and Optimizing LLM Inference Workloads on CPU-GPU Coupled Architectures [3.2645124275315163]
大規模言語モデル(LLM)ベースの推論ワークロードは、データセンターのコストとリソース利用をますます支配している。
本稿では, 疎結合(PCIe A100/H100) および密結合(GH200) システムにおける推論挙動の詳細な解析を行う。
論文 参考訳(メタデータ) (2025-04-16T04:02:39Z) - AgentKit: Structured LLM Reasoning with Dynamic Graphs [91.09525140733987]
多機能エージェントのための直感的なLCMプロンプトフレームワーク(AgentKit)を提案する。
AgentKitは、単純な自然言語プロンプトから複雑な"思考プロセス"を明示的に構築するための統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2024-04-17T15:40:45Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - Optimizing Deep Learning Recommender Systems' Training On CPU Cluster
Architectures [56.69373580921888]
クラウドコンピューティングセンターのAIサイクルの大部分を占めるRecommender Systemsに注目します。
HPC用に調整された最新のCPUハードウェアとソフトウェア上で動作可能にすることで、パフォーマンスの2桁以上の改善を達成できます。
論文 参考訳(メタデータ) (2020-05-10T14:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。