論文の概要: ChipGPT: How far are we from natural language hardware design
- arxiv url: http://arxiv.org/abs/2305.14019v3
- Date: Mon, 19 Jun 2023 08:28:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 02:03:42.574792
- Title: ChipGPT: How far are we from natural language hardware design
- Title(参考訳): ChipGPT: 自然言語のハードウェア設計からどこまで離れているのか
- Authors: Kaiyan Chang and Ying Wang and Haimeng Ren and Mengdi Wang and
Shengwen Liang and Yinhe Han and Huawei Li and Xiaowei Li
- Abstract要約: この研究は、自然言語仕様からハードウェアロジック設計を生成するLLMを探索する自動設計環境の実証を試みる。
LLMをベースとしたスケーラブルな4段階ゼロコード論理設計フレームワークを提案する。
- 参考スコア(独自算出の注目度): 34.22592995908168
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) like ChatGPT exhibited unprecedented machine
intelligence, it also shows great performance in assisting hardware engineers
to realize higher-efficiency logic design via natural language interaction. To
estimate the potential of the hardware design process assisted by LLMs, this
work attempts to demonstrate an automated design environment that explores LLMs
to generate hardware logic designs from natural language specifications. To
realize a more accessible and efficient chip development flow, we present a
scalable four-stage zero-code logic design framework based on LLMs without
retraining or finetuning. At first, the demo, ChipGPT, begins by generating
prompts for the LLM, which then produces initial Verilog programs. Second, an
output manager corrects and optimizes these programs before collecting them
into the final design space. Eventually, ChipGPT will search through this space
to select the optimal design under the target metrics. The evaluation sheds
some light on whether LLMs can generate correct and complete hardware logic
designs described by natural language for some specifications. It is shown that
ChipGPT improves programmability, and controllability, and shows broader design
optimization space compared to prior work and native LLMs alone.
- Abstract(参考訳): ChatGPTのような大規模言語モデル(LLM)は前例のないマシンインテリジェンスを示しており、ハードウェアエンジニアが自然言語インタラクションによる高効率論理設計を実現するのに優れた性能を示している。
LLMが支援するハードウェア設計プロセスの可能性を推定するために、LLMを探索して自然言語仕様からハードウェア論理設計を生成する自動設計環境の実証を試みる。
よりアクセシブルで効率的なチップ開発フローを実現するために,LLMをベースとしたスケーラブルな4段階ゼロコード論理設計フレームワークを提案する。
最初、デモのChipGPTはLSMのプロンプトを生成して始まり、最初のVerilogプログラムを生成する。
第二に、出力マネージャは最終設計空間に収集する前にこれらのプログラムを修正・最適化する。
最終的にChipGPTはこの領域を探索し、ターゲットのメトリクスの下で最適な設計を選択する。
この評価は、LLMがいくつかの仕様のために自然言語で記述された正確で完全なハードウェアロジック設計を生成できるかどうかにいくつかの光を当てている。
この結果,ChipGPTはプログラム性,制御性を改善し,従来の作業環境やネイティブLLMよりも広い設計最適化空間を示すことがわかった。
関連論文リスト
- RITFIS: Robust input testing framework for LLMs-based intelligent
software [6.439196068684973]
RITFISは、自然言語入力に対するインテリジェントソフトウェアの堅牢性を評価するために設計された最初のフレームワークである。
RITFISは17の自動テスト手法を採用しており、元々はディープニューラルネットワーク(DNN)ベースのインテリジェントソフトウェア用に設計された。
LLMベースの知的ソフトウェア評価におけるRITFISの有効性を実証的検証により示す。
論文 参考訳(メタデータ) (2024-02-21T04:00:54Z) - Revisiting Zeroth-Order Optimization for Memory-Efficient LLM
Fine-Tuning: A Benchmark [170.47660885570463]
本稿では、微調整時のメモリコスト低減のためのソリューションとして、BPフリーゼロオーダー最適化(ZO)への移行を提案する。
従来のZO-SGD法とは異なり、我々の研究はより広い範囲のZO最適化手法に探索を広げる。
本研究は,タスクアライメントの重要性,前方勾配法の役割,アルゴリズムの複雑さと微調整性能のバランスについて,これまで見過ごされてきた最適化原理を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T14:08:48Z) - Make Every Move Count: LLM-based High-Quality RTL Code Generation Using
MCTS [20.135906487081453]
本稿では,モンテカルロ木探索をベースとした自動トランスフォーマー復号アルゴリズムを提案する。
最先端のLLM(16ビット加算器)が生成する最大の設計のために,本技術は面積遅延生成物において31.8%の改善を達成できる。
論文 参考訳(メタデータ) (2024-02-05T18:47:04Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - LLM4EDA: Emerging Progress in Large Language Models for Electronic
Design Automation [74.7163199054881]
大規模言語モデル(LLM)は、文脈理解、論理推論、回答生成においてその能力を実証している。
本稿では,EDA分野におけるLLMの応用に関する系統的研究を行う。
論理合成,物理設計,マルチモーダル特徴抽出,回路のアライメントにLLMを適用することに焦点を当て,今後の研究の方向性を強調した。
論文 参考訳(メタデータ) (2023-12-28T15:09:14Z) - SEER: Super-Optimization Explorer for HLS using E-graph Rewriting with
MLIR [0.3124884279860061]
高レベル合成(英: High-level synthesis, HLS)とは、ソフトウェアプログラムを高レベル言語で自動的に低レベルなハードウェア記述に変換するプロセスである。
本稿では、任意のソフトウェアプログラムをHLS効率の良いコードに自動的に書き換えるHLSの超最適化手法を提案する。
この結果から,SEERは元のプログラムの1.4倍の範囲で最大38倍の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2023-08-15T09:05:27Z) - RTLLM: An Open-Source Benchmark for Design RTL Generation with Large
Language Model [6.722151433412209]
自然言語命令による設計RTLを生成するRTLLMというオープンソースのベンチマークを提案する。
このベンチマークは、任意のLCMベースのソリューションの定量的評価を自動的に行うことができる。
また,自己計画法(セルフプランニング)という,使い易く,驚くほど効果的なプロンプトエンジニアリング手法を提案する。
論文 参考訳(メタデータ) (2023-08-10T05:24:41Z) - The potential of LLMs for coding with low-resource and domain-specific
programming languages [0.0]
本研究は,オープンソースソフトウェアGreetlのハンスル(Hansl)という,econometricスクリプティング言語に焦点を当てたものである。
この結果から, LLMはグレタブルコードの記述, 理解, 改善, 文書化に有用なツールであることが示唆された。
論文 参考訳(メタデータ) (2023-07-24T17:17:13Z) - Low-code LLM: Visual Programming over LLMs [49.37966903221752]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
6種類のシンプルなローコードビジュアルプログラミングインタラクションが組み込まれており、すべてクリック、ドラッグ、テキスト編集によってサポートされている。
低コードLSMの利点として、制御可能な生成結果、ユーザフレンドリなヒューマン-LLMインタラクション、広く適用可能なシナリオの3つを挙げる。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z) - LEVER: Learning to Verify Language-to-Code Generation with Execution [64.36459105535]
本稿では,プログラムの実行結果の検証を学習することで,言語からコードへの生成を改善するシンプルな手法であるLEVERを提案する。
具体的には、LLMからサンプリングされたプログラムが、自然言語入力、プログラム自体とその実行結果に基づいて正しいか否かを判定するために、検証者を訓練する。
LEVER はベースコード LLMs (4.6% から 10.9% まで) を継続的に改善し、それらすべてに対して新しい最先端の結果を得る。
論文 参考訳(メタデータ) (2023-02-16T18:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。