論文の概要: MAHL: Multi-Agent LLM-Guided Hierarchical Chiplet Design with Adaptive Debugging
- arxiv url: http://arxiv.org/abs/2508.14053v1
- Date: Fri, 08 Aug 2025 05:47:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-24 10:27:26.525464
- Title: MAHL: Multi-Agent LLM-Guided Hierarchical Chiplet Design with Adaptive Debugging
- Title(参考訳): MAHL:適応デバッギングによるマルチエージェントLLM型階層型チップレット設計
- Authors: Jinwei Tang, Jiayin Qin, Nuo Xu, Pragnya Sudershan Nalla, Yu Cao, Yang, Zhao, Caiwen Ding,
- Abstract要約: 大きな言語モデル(LLM)は2.5Dに拡張することを約束している。
LLMはフラットな設計、高い検証コスト、不正確なパラメータ最適化といった課題に直面している。
階層型LLMベースのチップレット設計生成フレームワークであるMAHLを提案する。
- 参考スコア(独自算出の注目度): 61.83256382177746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As program workloads (e.g., AI) increase in size and algorithmic complexity, the primary challenge lies in their high dimensionality, encompassing computing cores, array sizes, and memory hierarchies. To overcome these obstacles, innovative approaches are required. Agile chip design has already benefited from machine learning integration at various stages, including logic synthesis, placement, and routing. With Large Language Models (LLMs) recently demonstrating impressive proficiency in Hardware Description Language (HDL) generation, it is promising to extend their abilities to 2.5D integration, an advanced technique that saves area overhead and development costs. However, LLM-driven chiplet design faces challenges such as flatten design, high validation cost and imprecise parameter optimization, which limit its chiplet design capability. To address this, we propose MAHL, a hierarchical LLM-based chiplet design generation framework that features six agents which collaboratively enable AI algorithm-hardware mapping, including hierarchical description generation, retrieval-augmented code generation, diverseflow-based validation, and multi-granularity design space exploration. These components together enhance the efficient generation of chiplet design with optimized Power, Performance and Area (PPA). Experiments show that MAHL not only significantly improves the generation accuracy of simple RTL design, but also increases the generation accuracy of real-world chiplet design, evaluated by Pass@5, from 0 to 0.72 compared to conventional LLMs under the best-case scenario. Compared to state-of-the-art CLARIE (expert-based), MAHL achieves comparable or even superior PPA results under certain optimization objectives.
- Abstract(参考訳): プログラムワークロード(例えばAI)のサイズとアルゴリズムの複雑さが増加するにつれ、最大の課題は、コンピューティングコア、配列サイズ、メモリ階層を含む、その高次元性にある。
これらの障害を克服するためには、革新的なアプローチが必要である。
アジャイルチップの設計は、ロジック合成、配置、ルーティングなど、さまざまな段階における機械学習統合の恩恵を受けています。
最近、Large Language Models (LLMs) はハードウェア記述言語 (HDL) 生成の卓越した習熟度を誇示し、その能力を2.5D統合に拡張することを約束している。これは、領域のオーバーヘッドと開発コストを節約する高度な技術である。
しかし、LCM駆動のチップレット設計は、フラットな設計、高い検証コスト、不正確なパラメータ最適化といった課題に直面し、チップレットの設計能力を制限している。
そこで本稿では,階層型LLMベースのチップレット設計生成フレームワークであるMAHLを提案する。このフレームワークは,階層型記述生成,検索拡張コード生成,多様なフローベース検証,多粒度設計空間探索など,AIアルゴリズム-ハードウェアマッピングを協調的に実現する6つのエージェントを特徴とする。
これらのコンポーネントは、最適化されたPower, Performance and Area (PPA)によるチップレット設計の効率的な生成を促進する。
実験の結果,MAHLは単純なRTL設計の生成精度を向上するだけでなく,Pass@5で評価された実世界のチップレット設計の生成精度も,従来のLCMと比較して0から0.72に向上することがわかった。
最先端のCLARIE (Expert-based) と比較して、MAHLは特定の最適化目標の下で、同等またはそれ以上のPPA結果を達成する。
関連論文リスト
- LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.83882149157548]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - Scaling Intelligence: Designing Data Centers for Next-Gen Language Models [0.13332839594069593]
GPT-4のような1.8兆のパラメータを持つ大規模言語モデル(LLM)は、データセンターアーキテクチャの根本的な再考を要求する。
我々の研究は、FLOPS、帯域幅と容量、複数のネットワークトポロジを共同で探求する包括的な協調設計フレームワークを提供する。
我々は、重なり合う計算と通信の利点を定量化し、ハードウェアアクセラレーションされた集合体を活用し、スケールアウト領域を広げ、メモリ容量を増大させる。
論文 参考訳(メタデータ) (2025-06-17T22:29:37Z) - From Large to Super-Tiny: End-to-End Optimization for Cost-Efficient LLMs [23.253571170594455]
大規模言語モデル(LLM)は、非常に高度な人工知能を持つ。
本稿では,3段階の低コストエンドツーエンドLCMデプロイメントパイプラインを提案する。
性能が向上し、コストが削減された超小型オンラインモデルを生産する。
論文 参考訳(メタデータ) (2025-04-18T05:25:22Z) - TPU-Gen: LLM-Driven Custom Tensor Processing Unit Generator [4.479077825955557]
本稿では,TPU生成プロセスの正確かつ近似的な自動化を目的とした,LLM(Large Language Model)ベースのフレームワークであるTPU-Genを紹介する。
TPU-Genは、広範囲の空間配列設計と近似乗算および累積単位をカバーする、厳密にキュレートされ、包括的でオープンソースのデータセットでサポートされている。
論文 参考訳(メタデータ) (2025-03-07T21:41:42Z) - HiVeGen -- Hierarchical LLM-based Verilog Generation for Scalable Chip Design [55.54477725000291]
HiVeGenは階層的なVerilog生成フレームワークで、生成タスクを階層的なサブモジュールに分解する。
自動設計空間探索(DSE)を階層対応のプロンプト生成に変換し、コードの再利用を強化するために重みに基づく検索を導入する。
エラー補正コストを低減し、生成した設計の質を大幅に向上させる。
論文 参考訳(メタデータ) (2024-12-06T19:37:53Z) - Improving Parallel Program Performance with LLM Optimizers via Agent-System Interfaces [9.880183350366792]
並列プログラムのパフォーマンスを改善する上で重要な課題は、タスクをプロセッサやデータに効率的にメモリにマッピングすることだ。
生成最適化によるマッパー開発を自動化するフレームワークを提案する。
提案手法では,9つのベンチマークで1.34倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-10-21T04:08:37Z) - Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark [166.40879020706151]
本稿では、微調整時のメモリコスト低減のためのソリューションとして、BPフリーゼロオーダー最適化(ZO)への移行を提案する。
従来のZO-SGD法とは異なり、我々の研究はより広い範囲のZO最適化手法に探索を広げる。
本研究は,タスクアライメントの重要性,前方勾配法の役割,アルゴリズムの複雑さと微調整性能のバランスについて,これまで見過ごされてきた最適化原理を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T14:08:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。