論文の概要: Natural Language to Verilog: Design of a Recurrent Spiking Neural Network using Large Language Models and ChatGPT
- arxiv url: http://arxiv.org/abs/2405.01419v3
- Date: Tue, 22 Oct 2024 18:31:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:52:29.183527
- Title: Natural Language to Verilog: Design of a Recurrent Spiking Neural Network using Large Language Models and ChatGPT
- Title(参考訳): 自然言語からVerilogへ:大規模言語モデルとChatGPTを用いた繰り返しスパイクニューラルネットワークの設計
- Authors: Paola Vitolo, George Psaltakis, Michael Tomlinson, Gian Domenico Licciardo, Andreas G. Andreou,
- Abstract要約: 我々はOpenAIのChatGPT4と自然言語プロンプトを使ってハードウェア記述コード、すなわちVerilogを生成する。
得られた設計は、3つの単純な機械学習タスク、排他的OR、IRIS花の分類、MNIST手書き桁の分類で検証された。
デザインはEfabless Tiny Tapeout 6に提出された。
- 参考スコア(独自算出の注目度): 0.08388591755871733
- License:
- Abstract: This paper investigates the use of Large Language Models (LLMs) and natural language prompts to generate hardware description code, namely Verilog. Building on our prior work, we employ OpenAI's ChatGPT4 and natural language prompts to synthesize an RTL Verilog module of a programmable recurrent spiking neural network, while also generating test benches to assess the system's correctness. The resultant design was validated in three simple machine learning tasks, the exclusive OR, the IRIS flower classification and the MNIST hand-written digit classification. Furthermore, the design was validated on a Field-Programmable Gate Array (FPGA) and subsequently synthesized in the SkyWater 130 nm technology by using an open-source electronic design automation flow. The design was submitted to Efabless Tiny Tapeout 6.
- Abstract(参考訳): 本稿では,Large Language Models(LLM)と自然言語プロンプトを用いて,ハードウェア記述コード(Verilog)を生成する。
これまでの研究に基づいて、我々はOpenAIのChatGPT4と自然言語を使って、プログラマブルリカレントスパイクニューラルネットワークのRTL Verilogモジュールを合成するとともに、システムの正しさを評価するためのテストベンチを生成する。
得られた設計は、3つの単純な機械学習タスク、排他的OR、IRIS花の分類、MNIST手書き桁の分類で検証された。
さらに、この設計はFPGA(Field-Programmable Gate Array)上で検証され、その後オープンソースの電子設計自動化フローを用いてSkyWater 130nm技術で合成された。
デザインはEfabless Tiny Tapeout 6に提出された。
関連論文リスト
- Natural language is not enough: Benchmarking multi-modal generative AI for Verilog generation [37.309663295844835]
視覚言語入力からのVerilog合成に適したマルチモーダル生成モデルのオープンソースベンチマークを提案する。
また、オープンソースのビジュアルで自然言語のVerilogクエリ言語フレームワークについても紹介する。
本結果は,自然言語のみに基づくクエリと比較して,マルチモーダル生成のVerilogが大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-07-11T13:10:09Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
我々は,LLMの性能を高めるため,グラフィカル検索拡張コード生成フレームワークであるCodeGRAGを提案する。
CodeGRAGは、制御フローとデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミング言語と自然言語のギャップを埋める。
ハードメタグラフプロンプト、ソフトプロンプト技術、事前訓練されたGNN専門家の目的の有効性を検証するために、C++言語とピソン言語の両方を含む4つのデータセットで様々な実験と改善が行われた。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - Designing Silicon Brains using LLM: Leveraging ChatGPT for Automated
Description of a Spiking Neuron Array [1.137846619087643]
本稿では、ChatGPT4を誘導し、プログラム可能なスパイキングニューロン配列ASICのための合成可能かつ機能的なベリログ記述を生成するプロンプトを提案する。
この設計フローは、自然言語駆動ハードウェア設計にChatGPT4を使用している現状を示している。
論文 参考訳(メタデータ) (2024-01-25T21:21:38Z) - In-Context Language Learning: Architectures and Algorithms [73.93205821154605]
我々は、文脈言語学習(ICLL)において、私たちが用語する新しいモデル問題群(英語版)のレンズを通してICLを研究する。
我々は,通常のICLLタスクにおいて,多種多様なニューラルシーケンスモデルを評価する。
論文 参考訳(メタデータ) (2024-01-23T18:59:21Z) - Zero-Shot RTL Code Generation with Attention Sink Augmented Large
Language Models [0.0]
本稿では,大規模言語モデルを利用したハードウェア設計におけるコード生成プロセスの合理化の可能性について論じる。
RTLコード生成で大きな言語モデルを使用する能力は、設計サイクルを高速化するだけでなく、設計空間の探索を促進する。
論文 参考訳(メタデータ) (2024-01-12T17:41:38Z) - Neural Markov Prolog [57.13568543360899]
本稿では,一階述語論理とニューラルネットワーク設計を橋渡しする手段として,言語Neural Markov Prolog (NMP)を提案する。
NMPは、画像、テキスト、リレーショナルデータベース、その他のターゲットデータ型のアーキテクチャを簡単に生成および提示することができる。
論文 参考訳(メタデータ) (2023-11-27T21:41:47Z) - ChipGPT: How far are we from natural language hardware design [34.22592995908168]
この研究は、自然言語仕様からハードウェアロジック設計を生成するLLMを探索する自動設計環境の実証を試みる。
LLMをベースとしたスケーラブルな4段階ゼロコード論理設計フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T12:54:02Z) - DAVE: Deriving Automatically Verilog from English [18.018512051180714]
技術者はデジタルシステムの仕様をプログラミング言語に変換するために多大な努力を払っている。
本稿では,最先端機械学習(ML)を用いて,英語からVerilogスニペットを自動的に抽出する方法について検討する。
論文 参考訳(メタデータ) (2020-08-27T15:25:03Z) - Exploring Software Naturalness through Neural Language Models [56.1315223210742]
ソフトウェア自然性仮説(Software Naturalness hypothesis)は、自然言語処理で使用されるのと同じ手法でプログラミング言語を理解することができると主張している。
この仮説は,事前学習されたトランスフォーマーベース言語モデルを用いて,コード解析タスクを実行することによって検討する。
論文 参考訳(メタデータ) (2020-06-22T21:56:14Z) - CodeBERT: A Pre-Trained Model for Programming and Natural Languages [117.34242908773061]
CodeBERTは、プログラミング言語(PL)とナット言語(NL)のための事前訓練されたモデルである。
我々はTransformerベースのニューラルアーキテクチャを用いたCodeBERTを開発した。
モデルパラメータの微調整による2つのNL-PLアプリケーション上でのCodeBERTの評価を行った。
論文 参考訳(メタデータ) (2020-02-19T13:09:07Z) - Synthetic Datasets for Neural Program Synthesis [66.20924952964117]
本稿では,プログラムと仕様の両方で合成データ分布のバイアスを制御し,評価するための新しい手法を提案する。
そこで我々は,Karel DSLと小さなCalculator DSLを用いて,これらの分布上でのディープネットワークのトレーニングにより,分散一般化性能が向上することが実証された。
論文 参考訳(メタデータ) (2019-12-27T21:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。