論文の概要: LUMINA: LLM-Guided GPU Architecture Exploration via Bottleneck Analysis
- arxiv url: http://arxiv.org/abs/2603.05904v1
- Date: Fri, 06 Mar 2026 04:47:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.089357
- Title: LUMINA: LLM-Guided GPU Architecture Exploration via Bottleneck Analysis
- Title(参考訳): LUMINA: Bottleneck分析によるLLM-Guided GPUアーキテクチャ探索
- Authors: Tao Zhang, Rui Ma, Shuotao Xu, Peng Cheng, Yongqiang Xiong,
- Abstract要約: 大規模言語モデル(LLM)推論は、GPUの広大なマルチモーダルな設計空間のために困難である。
既存の自動DSEメソッドは、しばしば違法に高価である。
我々は,AIを活用してDSE効率を向上させるLLM駆動型GPUアーキテクチャ探索フレームワークLUMINAを提案する。
- 参考スコア(独自算出の注目度): 8.471843667828994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: GPU design space exploration (DSE) for modern AI workloads, such as Large-Language Model (LLM) inference, is challenging because of GPUs' vast, multi-modal design spaces, high simulation costs, and complex design optimization objectives (e.g. performance, power and area trade-offs). Existing automated DSE methods are often prohibitively expensive, either requiring an excessive number of exploration samples or depending on intricate, manually crafted analyses of interdependent critical paths guided by human heuristics. We present LUMINA, an LLM-driven GPU architecture exploration framework that leverage AI to enhance the DSE efficiency and efficacy for GPUs. LUMINA extracts architectural knowledge from simulator code and performs sensitivity studies to automatically compose DSE rules,which are auto-corrected during exploration. A core component of LUMINA is a DSE Benchmark that comprehensively evaluates and enhances LLMs' capabilities across three fundamental skills required for architecture optimization, which provides a principled and reproducible basis for model selection and ensuring consistent architectural reasoning. In the design space with 4.7 million possible samples, LUMINA identifies 6 designs of better performance and area than an A100 GPU efficiently, using only 20 steps via LLM-assisted bottleneck analysis. In comparison, LUMINA achieves 17.5x higher than design space exploration efficiency, and 32.9% better designs (i.e. Pareto Hypervolume) than Machine-Learning baselines, showcasing its ability to deliver high-quality design guidance with minimal search cost.
- Abstract(参考訳): 大規模言語モデル(LLM)推論のような現代のAIワークロードのためのGPU設計空間探索(DSE)は、GPUの広大なマルチモーダルデザインスペース、高いシミュレーションコスト、複雑な設計最適化目標(例えば、パフォーマンス、パワー、エリアトレードオフ)のために困難である。
既存の自動DSE法は、過剰な調査サンプルを必要とするか、あるいは人間のヒューリスティックによって導かれる相互依存的臨界経路を手作業で分析するなど、しばしば違法に高価である。
我々は、AIを活用してGPUのDSE効率と有効性を向上させるLLM駆動のGPUアーキテクチャ探索フレームワークLUMINAを提案する。
LUMINAはシミュレータコードからアーキテクチャ知識を抽出し、DSEルールを自動生成する感度研究を行う。
LUMINAの中核となるコンポーネントは、アーキテクチャ最適化に必要な3つの基本的なスキルを総合的に評価し、LLMの能力を向上するDSEベンチマークである。
4.7万のサンプルを持つ設計領域では、LUMINAはA100 GPUよりも優れた性能と面積の6つの設計をLLM支援ボトルネック分析によるわずか20ステップで特定する。
対照的にLUMINAは設計スペースの探索効率より17.5倍高く、マシンラーニングベースラインよりも32.9%優れた設計(パレート・ハイパーボリューム)を達成しており、探索コストを最小化して高品質な設計ガイダンスを提供する能力を示している。
関連論文リスト
- Large Language Models for Physics Instrument Design [0.0]
物理機器設計における大規模言語モデル(LLM)の利用について検討し、その性能を強化学習(RL)と比較する。
RL はより強力な最終設計をもたらすが、現代の LLM は、有効で、リソースを意識し、物理的に意味のある構成を一貫して生成する。
そのため、自動クローズドループ・インスツルメンツの設計に向け、最適化の構築と監督に要する人的労力を削減できる。
論文 参考訳(メタデータ) (2026-01-12T14:30:54Z) - MM-HELIX: Boosting Multimodal Long-Chain Reflective Reasoning with Holistic Platform and Adaptive Hybrid Policy Optimization [103.74675519953898]
ロングチェーンのリフレクティブ推論は、複雑な現実世界の問題を解決するための前提条件である。
我々は42の難解な合成タスクの1,260のサンプルからなるベンチマークを構築した。
トレーニング後のデータを生成し、そのようなデータを活用するための学習パラダイムを探索する。
論文 参考訳(メタデータ) (2025-10-09T17:53:58Z) - MAHL: Multi-Agent LLM-Guided Hierarchical Chiplet Design with Adaptive Debugging [30.305211001929496]
大きな言語モデル(LLM)は2.5Dに拡張することを約束している。
LLMはフラットな設計、高い検証コスト、不正確なパラメータ最適化といった課題に直面している。
階層型LLMベースのチップレット設計生成フレームワークであるMAHLを提案する。
論文 参考訳(メタデータ) (2025-08-08T05:47:31Z) - GPU Kernel Scientist: An LLM-Driven Framework for Iterative Kernel Optimization [0.0]
本稿では,アクセルカーネルを反復精製する自動化手法を提案する。
本手法は多段階進化過程においてLLMを用いる。
このアプローチがAMD MI300ターゲットアーキテクチャの課題をどのようにナビゲートするかを詳述する。
論文 参考訳(メタデータ) (2025-06-25T19:59:34Z) - LLMs for Engineering: Teaching Models to Design High Powered Rockets [0.0]
大規模言語モデル (LLM) はソフトウェア工学に変化をもたらしたが、物理工学領域への応用はいまだ検討されていない。
本稿ではロケットベンチによる高出力ロケット設計におけるLLMの性能評価を行う。
我々は、目標高度最適化と高精度着陸という2つの複雑な設計課題に関するモデルをテストする。
論文 参考訳(メタデータ) (2025-04-27T23:59:39Z) - SEKI: Self-Evolution and Knowledge Inspiration based Neural Architecture Search via Large Language Models [11.670056503731905]
本稿では,新しい大規模言語モデル (LLM) に基づくニューラルアーキテクチャ探索 (NAS) 手法であるSEKIを紹介する。
現代のLLMにおけるチェーン・オブ・シント(CoT)パラダイムにインスパイアされたセキは、自己進化と知識蒸留という2つの重要な段階で動作している。
論文 参考訳(メタデータ) (2025-02-27T09:17:49Z) - EVOLvE: Evaluating and Optimizing LLMs For In-Context Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - ArchGym: An Open-Source Gymnasium for Machine Learning Assisted
Architecture Design [52.57999109204569]
ArchGymは、さまざまな検索アルゴリズムをアーキテクチャシミュレータに接続するオープンソースのフレームワークである。
我々は、カスタムメモリコントローラ、ディープニューラルネットワークアクセラレータ、AR/VRワークロード用のカスタムSOCを設計する際に、複数のバニラおよびドメイン固有の検索アルゴリズムにわたってArchGymを評価する。
論文 参考訳(メタデータ) (2023-06-15T06:41:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。