論文の概要: Exploring Code Language Models for Automated HLS-based Hardware Generation: Benchmark, Infrastructure and Analysis
- arxiv url: http://arxiv.org/abs/2502.13921v2
- Date: Wed, 05 Mar 2025 16:07:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:50:14.290534
- Title: Exploring Code Language Models for Automated HLS-based Hardware Generation: Benchmark, Infrastructure and Analysis
- Title(参考訳): HLSベースのハードウェア自動生成のためのコード言語モデル探索:ベンチマーク、インフラストラクチャ、分析
- Authors: Jiahao Gai, Hao Mark Chen, Zhican Wang, Hongyu Zhou, Wanru Zhao, Nicholas Lane, Hongxiang Fan,
- Abstract要約: LLM(Large Language Model)は、PythonやC++などのプログラミング言語に使用される。
本稿では,LLMを利用してHLS(High-Level Synthesis)ベースのハードウェア設計を行う。
- 参考スコア(独自算出の注目度): 14.458529723566379
- License:
- Abstract: Recent advances in code generation have illuminated the potential of employing large language models (LLMs) for general-purpose programming languages such as Python and C++, opening new opportunities for automating software development and enhancing programmer productivity. The potential of LLMs in software programming has sparked significant interest in exploring automated hardware generation and automation. Although preliminary endeavors have been made to adopt LLMs in generating hardware description languages (HDLs), several challenges persist in this direction. First, the volume of available HDL training data is substantially smaller compared to that for software programming languages. Second, the pre-trained LLMs, mainly tailored for software code, tend to produce HDL designs that are more error-prone. Third, the generation of HDL requires a significantly higher number of tokens compared to software programming, leading to inefficiencies in cost and energy consumption. To tackle these challenges, this paper explores leveraging LLMs to generate High-Level Synthesis (HLS)-based hardware design. Although code generation for domain-specific programming languages is not new in the literature, we aim to provide experimental results, insights, benchmarks, and evaluation infrastructure to investigate the suitability of HLS over low-level HDLs for LLM-assisted hardware design generation. To achieve this, we first finetune pre-trained models for HLS-based hardware generation, using a collected dataset with text prompts and corresponding reference HLS designs. An LLM-assisted framework is then proposed to automate end-to-end hardware code generation, which also investigates the impact of chain-of-thought and feedback loops promoting techniques on HLS-design generation. Limited by the timeframe of this research, we plan to evaluate more advanced reasoning models in the future.
- Abstract(参考訳): コード生成の最近の進歩は、PythonやC++のような汎用プログラミング言語に大規模言語モデル(LLM)を採用する可能性を示し、ソフトウェア開発の自動化とプログラマの生産性向上の新たな機会を開いた。
ソフトウェアプログラミングにおけるLLMの可能性は、自動ハードウェア生成と自動化の探求に大きな関心を呼んだ。
ハードウェア記述言語(HDL)の生成にLLMを採用するための予備的な取り組みは行われているが、この方向にはいくつかの課題が続いている。
第一に、利用可能なHDLトレーニングデータの量は、ソフトウェアプログラミング言語と比べてかなり小さい。
第二に、主にソフトウェアコード用に調整された事前訓練されたLLMは、よりエラーを起こしやすいHDL設計を生成する傾向がある。
第3に,HDLの生成にはソフトウェアプログラミングに比べてトークンの数が非常に多く,コストとエネルギー消費の非効率性が求められる。
これらの課題に対処するために, HLSベースのハードウェア設計のためのLCMの活用について検討する。
ドメイン特化プログラミング言語のコード生成は文献上新しいものではないが、実験結果、洞察、ベンチマーク、評価インフラを提供することを目標とし、LSM支援ハードウェア設計のための低レベルHDLに対するHLSの適合性を検討する。
そこで本研究では,テキストプロンプトとそれに対応する参照型HLS設計による収集データセットを用いて,HLSベースのハードウェア生成のための事前学習モデルをファインチューンする。
LLM支援フレームワークはエンドツーエンドのハードウェアコード生成を自動化するために提案され、HLS設計におけるチェーン・オブ・シントとフィードバック・ループの効果も調べている。
本研究の期間に限定して,今後,より高度な推論モデルの評価を行う予定である。
関連論文リスト
- HADES: Hardware Accelerated Decoding for Efficient Speculation in Large Language Models [1.2180334969164464]
大規模言語モデル(LLM)は、人間に似たテキストを理解し、生成することで自然言語処理に革命をもたらした。
本稿では,LLMの性能とエネルギー効率を向上させる新しい手法であるハードウェア高速化復号法(HADES)を提案する。
論文 参考訳(メタデータ) (2024-12-27T21:19:01Z) - HiVeGen -- Hierarchical LLM-based Verilog Generation for Scalable Chip Design [55.54477725000291]
HiVeGenは階層的なVerilog生成フレームワークで、生成タスクを階層的なサブモジュールに分解する。
自動設計空間探索(DSE)を階層対応のプロンプト生成に変換し、コードの再利用を強化するために重みに基づく検索を導入する。
エラー補正コストを低減し、生成した設計の質を大幅に向上させる。
論文 参考訳(メタデータ) (2024-12-06T19:37:53Z) - Are LLMs Any Good for High-Level Synthesis? [1.3927943269211591]
大規模言語モデル(LLM)は、高レベル合成(HLS)プロセスの合理化や置き換えが可能である。
LLMは自然言語の仕様を理解し、Cコードや自然言語の仕様を翻訳することができる。
本研究の目的は、AIアクセラレーション、組み込みシステム、高性能コンピューティングなどのアプリケーションにおいて、最適化されたハードウェア設計のための将来的な方向性を特定することである。
論文 参考訳(メタデータ) (2024-08-19T21:40:28Z) - Case2Code: Scalable Synthetic Data for Code Generation [105.89741089673575]
大規模言語モデル(LLM)は、コード生成において顕著なブレークスルーを示している。
最近の研究は、いくつかの強力なLLMによって生成された合成データをトレーニングすることで、コードLLMを改善している。
プログラムの表現性と正確性を利用したtextbfCase2Code タスクを提案する。
論文 参考訳(メタデータ) (2024-07-17T11:35:00Z) - Digital ASIC Design with Ongoing LLMs: Strategies and Prospects [0.0]
大きな言語モデル(LLM)は、ハードウェア記述言語(HDL)コードの自動生成の可能性を秘め、将来性のある開発と見なされている。
本稿では,LLMをデジタルASIC設計に活用するためのターゲット戦略を提案する。
論文 参考訳(メタデータ) (2024-04-25T05:16:57Z) - From English to ASIC: Hardware Implementation with Large Language Model [0.210674772139335]
本稿では,最先端の自然言語モデルの微調整とHDLコードデータセットの再シャッフルについて述べる。
この微調整は、正確で効率的なASIC設計を生成するモデルの習熟度を高めることを目的としている。
データセットのリシャッフルは、トレーニング材料の範囲を広げ、品質を向上させることを意図している。
論文 参考訳(メタデータ) (2024-03-11T09:57:16Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - LLM4EDA: Emerging Progress in Large Language Models for Electronic
Design Automation [74.7163199054881]
大規模言語モデル(LLM)は、文脈理解、論理推論、回答生成においてその能力を実証している。
本稿では,EDA分野におけるLLMの応用に関する系統的研究を行う。
論理合成,物理設計,マルチモーダル特徴抽出,回路のアライメントにLLMを適用することに焦点を当て,今後の研究の方向性を強調した。
論文 参考訳(メタデータ) (2023-12-28T15:09:14Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。