論文の概要: Customizing a Large Language Model for VHDL Design of High-Performance Microprocessors
- arxiv url: http://arxiv.org/abs/2505.09610v1
- Date: Wed, 14 May 2025 17:58:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.559698
- Title: Customizing a Large Language Model for VHDL Design of High-Performance Microprocessors
- Title(参考訳): 高性能マイクロプロセッサのVHDL設計のための大規模言語モデルのカスタマイズ
- Authors: Nicolas Dupuis, Ravi Nair, Shyam Ramji, Sean McClintock, Nishant Chauhan, Priyanka Nagpal, Bart Blaner, Ken Valk, Leon Stok, Ruchir Puri,
- Abstract要約: VHDLのコードを説明するために,我々はLLM(Large Language Model)を開発した。
専門家評価器に類似したモデルを測定するLLM-as-a-judgeを開発した方法を示す。
我々は、ジェネレーティブAIの世界におけるエキサイティングな新しい開発技術を用いて、ハードウェア設計LLMの品質向上に関する議論を締めくくった。
- 参考スコア(独自算出の注目度): 1.2719526957203544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of Large Language Models (LLMs) in hardware design has taken off in recent years, principally through its incorporation in tools that increase chip designer productivity. There has been considerable discussion about the use of LLMs in RTL specifications of chip designs, for which the two most popular languages are Verilog and VHDL. LLMs and their use in Verilog design has received significant attention due to the higher popularity of the language, but little attention so far has been given to VHDL despite its continued popularity in the industry. There has also been little discussion about the unique needs of organizations that engage in high-performance processor design, and techniques to deploy AI solutions in these settings. In this paper, we describe our journey in developing a Large Language Model (LLM) specifically for the purpose of explaining VHDL code, a task that has particular importance in an organization with decades of experience and assets in high-performance processor design. We show how we developed test sets specific to our needs and used them for evaluating models as we performed extended pretraining (EPT) of a base LLM. Expert evaluation of the code explanations produced by the EPT model increased to 69% compared to a base model rating of 43%. We further show how we developed an LLM-as-a-judge to gauge models similar to expert evaluators. This led us to deriving and evaluating a host of new models, including an instruction-tuned version of the EPT model with an expected expert evaluator rating of 71%. Our experiments also indicate that with the potential use of newer base models, this rating can be pushed to 85% and beyond. We conclude with a discussion on further improving the quality of hardware design LLMs using exciting new developments in the Generative AI world.
- Abstract(参考訳): ハードウェア設計におけるLarge Language Models (LLMs)の使用は、主にチップデザイナーの生産性を高めるツールの組み入れによって、近年始まった。
チップ設計のRTL仕様におけるLLMの使用については、VerilogとVHDLの2言語で広く使われている。
LLMとVerilogの設計におけるそれらの使用は、言語の人気の高さから大きな注目を集めているが、業界での人気が続いているにもかかわらず、VHDLにはほとんど注目されていない。
ハイパフォーマンスプロセッサ設計に従事する組織のユニークなニーズや、これらの設定にAIソリューションをデプロイするテクニックについても、ほとんど議論されていない。
本稿では,高性能プロセッサ設計における数十年の経験と資産を持つ組織において,特に重要な課題であるVHDLコードの説明を目的とした大規模言語モデル(LLM)の開発について述べる。
LLMの拡張事前学習(EPT)を行う際に、ニーズに応じたテストセットを開発し、モデルの評価に使用する方法を示す。
EPTモデルによるコード説明のエキスパート評価は,ベースモデル評価の43%に比べて69%に向上した。
さらに、専門家評価器と同様のモデルを測定するLLM-as-a-judgeを開発した方法について述べる。
その結果,ETPモデルの命令調整版や,専門家による評価基準の71%を含む,新たなモデルのホストの導出と評価が可能となった。
私たちの実験は、新しいベースモデルを使用することによって、この評価が85%以上まで押し下げられることも示しています。
我々は、ジェネレーティブAIの世界におけるエキサイティングな新しい開発技術を用いて、ハードウェア設計LLMの品質向上に関する議論を締めくくった。
関連論文リスト
- Learnware of Language Models: Specialized Small Language Models Can Do Big [50.285859986475394]
本稿では,学習用パラダイムを言語モデルに適用するための予備的試みを示す。
我々は,8Bパラメータを持つ特殊SLMの学習装置を約100個構成した学習装置をシミュレートした。
各タスク固有の推論に対して1つの適切な学習ウェアを選択することで、システムは全てのベンチマークでベースSLMよりも優れる。
論文 参考訳(メタデータ) (2025-05-19T17:54:35Z) - ChiseLLM: Unleashing the Power of Reasoning LLMs for Chisel Agile Hardware Development [2.991306123894704]
本稿では,データ処理と変換,プロンプト誘導推論トレース合成,ドメイン適応モデルトレーニングを含むソリューションであるChiseLLMを提案する。
実験の結果、我々のChiseLLM-7B と ChiseLLM-32B は、基本モデルよりも構文の正しさを 18.85% と 26.32% 改善した。
論文 参考訳(メタデータ) (2025-04-27T07:56:49Z) - Exploring Code Language Models for Automated HLS-based Hardware Generation: Benchmark, Infrastructure and Analysis [14.458529723566379]
LLM(Large Language Model)は、PythonやC++などのプログラミング言語に使用される。
本稿では,LLMを利用してHLS(High-Level Synthesis)ベースのハードウェア設計を行う。
論文 参考訳(メタデータ) (2025-02-19T17:53:59Z) - CogACT: A Foundational Vision-Language-Action Model for Synergizing Cognition and Action in Robotic Manipulation [100.25567121604382]
VLA(Vision-Language-Action)モデルは、言語誘導されたタスクの実行と、目に見えないシナリオへの一般化の観点から、ロボット操作を改善した。
VLM(Vision-Language-Models)に基づく新しい高度なVLAアーキテクチャを提案する。
我々のモデルはタスクパフォーマンスにおいて既存のVLAをはるかに上回るだけでなく、新しいロボットへの顕著な適応と、見えないオブジェクトや背景への一般化も示している。
論文 参考訳(メタデータ) (2024-11-29T12:06:03Z) - Automatically Improving LLM-based Verilog Generation using EDA Tool Feedback [25.596711210493172]
大きな言語モデル(LLM)は、完全に機能するHDLコードを生成するための潜在的なツールとして現れています。
電子設計自動化(EDA)ツールからのフィードバックを利用して,自作のVerilogの誤りを修正できることを評価する。
論文 参考訳(メタデータ) (2024-11-01T17:33:28Z) - FVEval: Understanding Language Model Capabilities in Formal Verification of Digital Hardware [4.480157114854711]
FVEvalは,形式的検証(FV)に関わるタスクにおいて,大規模言語モデル(LLM)のパフォーマンスを特徴付ける最初の総合ベンチマークである。
ベンチマークは3つのサブタスクで構成され、異なるレベルでLLM能力を測定する。
本稿では,FVに整合した合成例を生成するための,専門家による検証手法と手法のコレクションについて述べる。
論文 参考訳(メタデータ) (2024-10-15T21:48:57Z) - Revisiting VerilogEval: A Year of Improvements in Large-Language Models for Hardware Code Generation [6.463959200930805]
オープンソースのVerilogEvalベンチマークのリリース以降,新しい商用およびオープンなモデルを評価する。
最先端のモデルでは測定可能な改善が得られます。
高いパスレートを達成するためには、迅速なエンジニアリングが不可欠であることに気付きました。
論文 参考訳(メタデータ) (2024-08-20T17:58:56Z) - LLAVADI: What Matters For Multimodal Large Language Models Distillation [77.73964744238519]
本研究では,新しい効率的なモデル構造を提案するのではなく,スクラッチから小規模MLLMを訓練する。
本研究は, 知識蒸留プロセスにおける学習戦略, モデル選択, 蒸留アルゴリズムに関するものである。
異なるベンチマークと適切な戦略を評価することで、2.7Bの小型モデルでも7Bまたは13Bのパラメータを持つ大型モデルと同等に動作することができる。
論文 参考訳(メタデータ) (2024-07-28T06:10:47Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - ChipNeMo: Domain-Adapted LLMs for Chip Design [19.43613652552849]
ChipNeMoは、産業用チップ設計のための大規模言語モデル(LLM)の応用を探求することを目的としている。
ドメイン適応型トークン化、ドメイン適応型継続事前トレーニング、ドメイン固有命令とのモデルアライメント、ドメイン適応型検索モデルを採用する。
論文 参考訳(メタデータ) (2023-10-31T22:35:58Z) - L2CEval: Evaluating Language-to-Code Generation Capabilities of Large
Language Models [102.00201523306986]
大規模言語モデル(LLM)の言語間コード生成能力を体系的に評価するL2CEvalを提案する。
モデルのサイズ、事前学習データ、命令チューニング、異なるプロンプトメソッドなど、それらのパフォーマンスに影響を与える可能性のある要因を分析する。
モデル性能の評価に加えて、モデルに対する信頼性校正を計測し、出力プログラムの人間による評価を行う。
論文 参考訳(メタデータ) (2023-09-29T17:57:00Z) - VindLU: A Recipe for Effective Video-and-Language Pretraining [83.49216853881595]
本稿では,VidLモデル設計において最も重要な要素を解明する実証的研究を行う。
これらの経験的洞察を用いて、有効なVidL事前学習のためのステップバイステップレシピVindLUを開発した。
提案手法を用いてトレーニングしたモデルは,VidLタスクにおける最先端結果と同等かそれ以上の精度で達成できる。
論文 参考訳(メタデータ) (2022-12-09T18:54:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。