論文の概要: Natural Language to Verilog: Design of a Recurrent Spiking Neural Network using Large Language Models and ChatGPT
- arxiv url: http://arxiv.org/abs/2405.01419v2
- Date: Wed, 14 Aug 2024 14:42:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 17:46:37.921245
- Title: Natural Language to Verilog: Design of a Recurrent Spiking Neural Network using Large Language Models and ChatGPT
- Title(参考訳): 自然言語からVerilogへ:大規模言語モデルとChatGPTを用いた繰り返しスパイクニューラルネットワークの設計
- Authors: Paola Vitolo, George Psaltakis, Michael Tomlinson, Gian Domenico Licciardo, Andreas G. Andreou,
- Abstract要約: 我々はOpenAIのChatGPT4を用いて、プログラム可能な繰り返しスパイクニューラルネットワークのRTL Verilogモジュールを合成する。
得られた設計は、排他的OR、IRIS花分類、MNIST手書き桁分類の3つのケーススタディで検証され、96.6%の精度を達成した。
- 参考スコア(独自算出の注目度): 0.08388591755871733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the use of Large Language Models (LLMs) for automating the generation of hardware description code, aiming to explore their potential in supporting and enhancing the development of efficient neuromorphic computing architectures. Building on our prior work, we employ OpenAI's ChatGPT4 and natural language prompts to synthesize a RTL Verilog module of a programmable recurrent spiking neural network, while also generating test benches to assess the system's correctness. The resultant design was validated in three case studies, the exclusive OR,the IRIS flower classification and the MNIST hand-written digit classification, achieving accuracies of up to 96.6%. To verify its synthesizability and implementability, the design was prototyped on a field-programmable gate array and implemented on SkyWater 130 nm technology by using an open-source electronic design automation flow. Additionally, we have submitted it to Tiny Tapeout 6 chip fabrication program to further evaluate the system on-chip performance in the future.
- Abstract(参考訳): 本稿では,ハードウェア記述コードの自動生成におけるLarge Language Models (LLMs) の利用について検討する。
これまでの研究に基づいて、我々はOpenAIのChatGPT4と自然言語のプロンプトを用いて、プログラマブルリカレントスパイクニューラルネットワークのRTL Verilogモジュールを合成するとともに、システムの正しさを評価するためのテストベンチを生成する。
得られた設計は、排他的OR、IRIS花分類、MNIST手書き桁分類の3つのケーススタディで検証され、96.6%の精度を達成した。
合成性と実装性を検証するため、フィールドプログラマブルゲートアレイで試作され、オープンソースの電子設計自動化フローを用いてSkyWater 130nm技術で実装された。
さらに,Tiny Tapeout 6チップ製造プログラムに提案し,将来的なオンチップ性能の評価を行った。
関連論文リスト
- Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
形式言語理論は、特に認識者に関するものである。
代わりに、非公式な意味でのみ類似したプロキシタスクを使用するのが一般的である。
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価することで、このミスマッチを補正する。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - Natural language is not enough: Benchmarking multi-modal generative AI for Verilog generation [37.309663295844835]
視覚言語入力からのVerilog合成に適したマルチモーダル生成モデルのオープンソースベンチマークを提案する。
また、オープンソースのビジュアルで自然言語のVerilogクエリ言語フレームワークについても紹介する。
本結果は,自然言語のみに基づくクエリと比較して,マルチモーダル生成のVerilogが大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-07-11T13:10:09Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
我々は,LLMの性能を高めるため,グラフィカル検索拡張コード生成フレームワークであるCodeGRAGを提案する。
CodeGRAGは、制御フローとデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミング言語と自然言語のギャップを埋める。
ハードメタグラフプロンプト、ソフトプロンプト技術、事前訓練されたGNN専門家の目的の有効性を検証するために、C++言語とピソン言語の両方を含む4つのデータセットで様々な実験と改善が行われた。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - Designing Silicon Brains using LLM: Leveraging ChatGPT for Automated
Description of a Spiking Neuron Array [1.137846619087643]
本稿では、ChatGPT4を誘導し、プログラム可能なスパイキングニューロン配列ASICのための合成可能かつ機能的なベリログ記述を生成するプロンプトを提案する。
この設計フローは、自然言語駆動ハードウェア設計にChatGPT4を使用している現状を示している。
論文 参考訳(メタデータ) (2024-01-25T21:21:38Z) - Zero-Shot RTL Code Generation with Attention Sink Augmented Large
Language Models [0.0]
本稿では,大規模言語モデルを利用したハードウェア設計におけるコード生成プロセスの合理化の可能性について論じる。
RTLコード生成で大きな言語モデルを使用する能力は、設計サイクルを高速化するだけでなく、設計空間の探索を促進する。
論文 参考訳(メタデータ) (2024-01-12T17:41:38Z) - Neural Markov Prolog [57.13568543360899]
本稿では,一階述語論理とニューラルネットワーク設計を橋渡しする手段として,言語Neural Markov Prolog (NMP)を提案する。
NMPは、画像、テキスト、リレーショナルデータベース、その他のターゲットデータ型のアーキテクチャを簡単に生成および提示することができる。
論文 参考訳(メタデータ) (2023-11-27T21:41:47Z) - ChipGPT: How far are we from natural language hardware design [34.22592995908168]
この研究は、自然言語仕様からハードウェアロジック設計を生成するLLMを探索する自動設計環境の実証を試みる。
LLMをベースとしたスケーラブルな4段階ゼロコード論理設計フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T12:54:02Z) - DAVE: Deriving Automatically Verilog from English [18.018512051180714]
技術者はデジタルシステムの仕様をプログラミング言語に変換するために多大な努力を払っている。
本稿では,最先端機械学習(ML)を用いて,英語からVerilogスニペットを自動的に抽出する方法について検討する。
論文 参考訳(メタデータ) (2020-08-27T15:25:03Z) - Exploring Software Naturalness through Neural Language Models [56.1315223210742]
ソフトウェア自然性仮説(Software Naturalness hypothesis)は、自然言語処理で使用されるのと同じ手法でプログラミング言語を理解することができると主張している。
この仮説は,事前学習されたトランスフォーマーベース言語モデルを用いて,コード解析タスクを実行することによって検討する。
論文 参考訳(メタデータ) (2020-06-22T21:56:14Z) - CodeBERT: A Pre-Trained Model for Programming and Natural Languages [117.34242908773061]
CodeBERTは、プログラミング言語(PL)とナット言語(NL)のための事前訓練されたモデルである。
我々はTransformerベースのニューラルアーキテクチャを用いたCodeBERTを開発した。
モデルパラメータの微調整による2つのNL-PLアプリケーション上でのCodeBERTの評価を行った。
論文 参考訳(メタデータ) (2020-02-19T13:09:07Z) - Synthetic Datasets for Neural Program Synthesis [66.20924952964117]
本稿では,プログラムと仕様の両方で合成データ分布のバイアスを制御し,評価するための新しい手法を提案する。
そこで我々は,Karel DSLと小さなCalculator DSLを用いて,これらの分布上でのディープネットワークのトレーニングにより,分散一般化性能が向上することが実証された。
論文 参考訳(メタデータ) (2019-12-27T21:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。