論文の概要: Chip-Chat: Challenges and Opportunities in Conversational Hardware
Design
- arxiv url: http://arxiv.org/abs/2305.13243v2
- Date: Tue, 14 Nov 2023 05:10:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 19:03:23.674531
- Title: Chip-Chat: Challenges and Opportunities in Conversational Hardware
Design
- Title(参考訳): Chip-Chat:会話型ハードウェア設計における課題と機会
- Authors: Jason Blocklove and Siddharth Garg and Ramesh Karri and Hammond Pearce
- Abstract要約: 人工知能(AI)は、マシンベースのエンドツーエンド翻訳の能力を実証した。
LLM(Large Language Models)は、様々なプログラミング言語でコードを生成することができると主張している。
この「チップチャット」は、私たちが世界で初めて完全にAIで書かれたテープアウト用HDLだと信じているものになったと信じています。
- 参考スコア(独自算出の注目度): 27.760832802199637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern hardware design starts with specifications provided in natural
language. These are then translated by hardware engineers into appropriate
Hardware Description Languages (HDLs) such as Verilog before synthesizing
circuit elements. Automating this translation could reduce sources of human
error from the engineering process. But, it is only recently that artificial
intelligence (AI) has demonstrated capabilities for machine-based end-to-end
design translations. Commercially-available instruction-tuned Large Language
Models (LLMs) such as OpenAI's ChatGPT and Google's Bard claim to be able to
produce code in a variety of programming languages; but studies examining them
for hardware are still lacking. In this work, we thus explore the challenges
faced and opportunities presented when leveraging these recent advances in LLMs
for hardware design. Given that these `conversational' LLMs perform best when
used interactively, we perform a case study where a hardware engineer
co-architects a novel 8-bit accumulator-based microprocessor architecture with
the LLM according to real-world hardware constraints. We then sent the
processor to tapeout in a Skywater 130nm shuttle, meaning that this `Chip-Chat'
resulted in what we believe to be the world's first wholly-AI-written HDL for
tapeout.
- Abstract(参考訳): 現代のハードウェア設計は、自然言語で提供される仕様から始まる。
それらがハードウェアエンジニアによって、回路要素を合成する前にVerilogのような適切なハードウェア記述言語(HDL)に変換される。
この翻訳の自動化は、エンジニアリングプロセスからのヒューマンエラーの原因を減らすことができる。
しかし、人工知能(AI)が機械ベースのエンドツーエンドデザイン翻訳の能力を実証したのは、ごく最近のことだ。
openai の chatgpt や google の bard のような商用で使用可能な命令調整型大型言語モデル (llm) は、様々なプログラミング言語でコードを生成することができると主張しているが、ハードウェアでそれを調べる研究はまだ不足している。
そこで本研究では,LLMの最近の進歩を利用したハードウェア設計における課題と機会について考察する。
これらの「会話型」LLMが対話的に使用される場合、実世界のハードウェア制約に従って、ハードウェアエンジニアが新しい8ビットアキュムレータベースのマイクロプロセッサアーキテクチャをLLMで構築するケーススタディを実行する。
その後、我々はプロセッサを130nmのスカイウォーターシャトルでテーパアウトに送った。この「チップチャット」は、私たちが世界で初めてタパアウト用に完全にaiで書いたhdlだと信じていることを意味する。
関連論文リスト
- Natural Language to Verilog: Design of a Recurrent Spiking Neural Network using Large Language Models and ChatGPT [0.08388591755871733]
我々はOpenAIのChatGPT4と自然言語プロンプトを使ってハードウェア記述コード、すなわちVerilogを生成する。
得られた設計は、3つの単純な機械学習タスク、排他的OR、IRIS花の分類、MNIST手書き桁の分類で検証された。
デザインはEfabless Tiny Tapeout 6に提出された。
論文 参考訳(メタデータ) (2024-05-02T16:08:08Z) - Evaluating LLMs for Hardware Design and Test [25.412044293834715]
大規模言語モデル(LLM)は、ハードウェア記述言語(HDL)でコードを生成する能力を実証した。
機能的および検証目的でVerilogを生成する際に,最先端の会話型LLMの機能と限界について検討する。
論文 参考訳(メタデータ) (2024-04-23T18:55:49Z) - LLM-aided explanations of EDA synthesis errors [10.665347817363623]
大規模言語モデル(LLM)は、テキスト理解と質問応答能力を示している。
我々は,21種類のバグコードサンプル上に3つのOpenAI LLMを用いて,936個のエラーメッセージ説明を生成する。
その結果, 約71%のケースにおいて, LLMは初等学習者に適した正解と完全解法を与えることがわかった。
論文 参考訳(メタデータ) (2024-04-07T07:12:16Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - LLM4EDA: Emerging Progress in Large Language Models for Electronic
Design Automation [74.7163199054881]
大規模言語モデル(LLM)は、文脈理解、論理推論、回答生成においてその能力を実証している。
本稿では,EDA分野におけるLLMの応用に関する系統的研究を行う。
論理合成,物理設計,マルチモーダル特徴抽出,回路のアライメントにLLMを適用することに焦点を当て,今後の研究の方向性を強調した。
論文 参考訳(メタデータ) (2023-12-28T15:09:14Z) - Guess & Sketch: Language Model Guided Transpilation [59.02147255276078]
学習されたトランスパイレーションは、手作業による書き直しやエンジニアリングの取り組みに代わるものだ。
確率的ニューラルネットワークモデル(LM)は、入力毎に可塑性出力を生成するが、正確性を保証するコストがかかる。
Guess & Sketch は LM の特徴からアライメントと信頼性情報を抽出し、意味的等価性を解決するためにシンボリック・ソルバに渡す。
論文 参考訳(メタデータ) (2023-09-25T15:42:18Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - Prompt Sapper: A LLM-Empowered Production Tool for Building AI Chains [31.080896878139402]
我々は、AIチェーンの概念を提案し、ソフトウェア工学で何十年にもわたって蓄積されてきたベストプラクティスとプラクティスをAIチェーンエンジニアリングに導入する。
また、AIチェーンの構築プロセスにおいて、これらのAIチェーンのエンジニアリング原則とパターンを自然に具現化する、コード統合開発環境であるPrompt Sapperも開発しています。
論文 参考訳(メタデータ) (2023-06-21T05:31:00Z) - Augmented Language Models: a Survey [55.965967655575454]
この調査は、言語モデル(LM)が推論スキルとツールの使用能力で強化されているかのレビューを行う。
私たちはこれらをAugmented Language Models (ALMs)と呼ぶ。
トークンの目的の欠如により、ALMは標準的な自然言語タスクを実行しながら、推論、ツールの使用、さらには行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-02-15T18:25:52Z) - MRKL Systems: A modular, neuro-symbolic architecture that combines large
language models, external knowledge sources and discrete reasoning [50.40151403246205]
巨大な言語モデル(LM)は、自然言語ベースの知識タスクのゲートウェイとして機能する、AIの新しい時代を支えている。
離散的な知識と推論モジュールによって補完される、複数のニューラルモデルによる柔軟なアーキテクチャを定義する。
本稿では,MRKL(Modular Reasoning, Knowledge and Language)システムと呼ばれる,このニューロシンボリックアーキテクチャについて述べる。
論文 参考訳(メタデータ) (2022-05-01T11:01:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。