論文の概要: From English to ASIC: Hardware Implementation with Large Language Model
- arxiv url: http://arxiv.org/abs/2403.07039v1
- Date: Mon, 11 Mar 2024 09:57:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 00:01:48.057712
- Title: From English to ASIC: Hardware Implementation with Large Language Model
- Title(参考訳): 英語からASICへ:大規模言語モデルによるハードウェア実装
- Authors: Emil Goh, Maoyang Xiang, I-Chyn Wey, T. Hui Teo
- Abstract要約: 本稿では,最先端の自然言語モデルの微調整とHDLコードデータセットの再シャッフルについて述べる。
この微調整は、正確で効率的なASIC設計を生成するモデルの習熟度を高めることを目的としている。
データセットのリシャッフルは、トレーニング材料の範囲を広げ、品質を向上させることを意図している。
- 参考スコア(独自算出の注目度): 0.210674772139335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the realm of ASIC engineering, the landscape has been significantly
reshaped by the rapid development of LLM, paralleled by an increase in the
complexity of modern digital circuits. This complexity has escalated the
requirements for HDL coding, necessitating a higher degree of precision and
sophistication. However, challenges have been faced due to the
less-than-optimal performance of modern language models in generating hardware
description code, a situation further exacerbated by the scarcity of the
corresponding high-quality code datasets. These challenges have highlighted the
gap between the potential of LLMs to revolutionize digital circuit design and
their current capabilities in accurately interpreting and implementing hardware
specifications. To address these challenges, a strategy focusing on the
fine-tuning of the leading-edge nature language model and the reshuffling of
the HDL code dataset has been developed. The fine-tuning aims to enhance
models' proficiency in generating precise and efficient ASIC design, while the
dataset reshuffling is intended to broaden the scope and improve the quality of
training material. The model demonstrated significant improvements compared to
the base model, with approximately 10% to 20% increase in accuracy across a
wide range of temperature for the pass@1 metric. This approach is expected to
facilitate a simplified and more efficient LLM-assisted framework for complex
circuit design, leveraging their capabilities to meet the sophisticated demands
of HDL coding and thus streamlining the ASIC development process.
- Abstract(参考訳): asic工学の領域では、現在のデジタル回路の複雑さの増加と並行して、llmの急速な発展によって風景は大幅に再構成されている。
この複雑さはHDLコーディングの要求を増大させ、高い精度と高度化を必要としている。
しかし、ハードウェア記述コードの生成におけるモダン言語モデルの最適性能の低下と、それに対応する高品質なコードデータセットの不足によりさらに悪化した状況により、課題に直面している。
これらの課題は、デジタル回路設計に革命を起こすllmの可能性と、ハードウェア仕様の正確な解釈と実装における現在の能力とのギャップを強調している。
これらの課題に対処するため、最先端の自然言語モデルの微調整とHDLコードデータセットの再シャッフルに焦点を当てた戦略が開発されている。
この微調整は、精密で効率的なASIC設計を生成するためのモデルの習熟度を高めることを目的としており、データセットの再シャッフルは、トレーニング材料の範囲を広げ、品質を向上させることを目的としている。
このモデルはベースモデルと比較して大幅に改善され、pass@1メトリックの幅広い温度で10%から20%の精度が向上した。
このアプローチは、複雑な回路設計のためのシンプルで効率的なLCM支援フレームワークを促進し、HDLコーディングの洗練された要求を満たすためにそれらの能力を活用し、ASIC開発プロセスを合理化する。
関連論文リスト
- CONLINE: Complex Code Generation and Refinement with Online Searching and Correctness Testing [51.00909683314142]
情報検索と自動正当性テストのためのオンライン検索を計画的に組み込むことで,コード生成を向上するCONLINEフレームワークを導入する。
CONLINEはDS-1000とClassEvalデータセットの厳密な実験を通じて検証される。
論文 参考訳(メタデータ) (2024-03-20T13:33:55Z) - Enhancing Code Generation Performance of Smaller Models by Distilling the Reasoning Ability of LLMs [36.409470894115074]
我々は、LLMのコード生成推論機能をより小さなモデルに転送することを目的としたCodePLANフレームワークを提案する。
提案手法は,APPSベンチマークにおいて,より小さなモデルのコード生成性能を130%以上向上させる。
論文 参考訳(メタデータ) (2024-03-20T03:09:54Z) - Entropy-Regularized Token-Level Policy Optimization for Large Language
Models [76.02428537504323]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
その結果,ETPO は CodeLlama-7B モデルで有効な性能向上を実現し,RLHF から受け継いだ変種 PPO ベースラインを超越していることがわかった。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - LLM4EDA: Emerging Progress in Large Language Models for Electronic
Design Automation [74.7163199054881]
大規模言語モデル(LLM)は、文脈理解、論理推論、回答生成においてその能力を実証している。
本稿では,EDA分野におけるLLMの応用に関する系統的研究を行う。
論理合成,物理設計,マルチモーダル特徴抽出,回路のアライメントにLLMを適用することに焦点を当て,今後の研究の方向性を強調した。
論文 参考訳(メタデータ) (2023-12-28T15:09:14Z) - Image-based Artificial Intelligence empowered surrogate model and shape
morpher for real-time blank shape optimisation in the hot stamping process [3.264571107058741]
本研究は,画像に基づく人工インテリジェンスを用いたサロゲートモデリング (IAISM) 手法の開発である。
IAISMは任意の空白形状を与えられた as-formed コンポーネントの完全な薄めフィールドを予測するために訓練される。
高精度で汎用的なサロゲートモデリングおよび最適化ツールとして、提案されたパイプラインは、フルチェーンのデジタルツインに統合されることを約束している。
論文 参考訳(メタデータ) (2022-12-01T20:17:48Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - Model-based Deep Learning Receiver Design for Rate-Splitting Multiple
Access [65.21117658030235]
本研究では,モデルベース深層学習(MBDL)に基づく実用的なRSMA受信機の設計を提案する。
MBDL受信機は、符号なしシンボル誤り率(SER)、リンクレベルシミュレーション(LLS)によるスループット性能、平均トレーニングオーバーヘッドの観点から評価される。
その結果,MBDLはCSIRが不完全なSIC受信機よりも優れていた。
論文 参考訳(メタデータ) (2022-05-02T12:23:55Z) - Scalable Deep-Learning-Accelerated Topology Optimization for Additively
Manufactured Materials [4.221095652322005]
トポロジー最適化(TO)は、新しい構造、材料、デバイスを設計するための、人気があり強力な計算手法である。
これらの課題に対処するため、SDL-TOと呼ばれる汎用拡張型ディープラーニング(DL)ベースのToフレームワークを提案する。
我々のフレームワークは、反復履歴データを学習し、与えられた設計と勾配のマッピングを同時にトレーニングすることで、TOを加速します。
論文 参考訳(メタデータ) (2020-11-28T17:38:31Z) - Optimization-driven Machine Learning for Intelligent Reflecting Surfaces
Assisted Wireless Networks [82.33619654835348]
インテリジェントサーフェス(IRS)は、個々の散乱素子の位相シフトを制御して無線チャネルを再形成するために用いられる。
散乱素子の規模が大きいため、受動ビームフォーミングは一般に高い計算複雑性によって挑戦される。
本稿では、IRS支援無線ネットワークの性能向上のための機械学習(ML)アプローチに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-29T08:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。