論文の概要: Designing Silicon Brains using LLM: Leveraging ChatGPT for Automated
Description of a Spiking Neuron Array
- arxiv url: http://arxiv.org/abs/2402.10920v1
- Date: Thu, 25 Jan 2024 21:21:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-25 17:18:02.268414
- Title: Designing Silicon Brains using LLM: Leveraging ChatGPT for Automated
Description of a Spiking Neuron Array
- Title(参考訳): LLMを用いたシリコン脳の設計:スパイキングニューロンアレイの自動記述のためのChatGPTの活用
- Authors: Michael Tomlinson, Joe Li, Andreas Andreou
- Abstract要約: 本稿では、ChatGPT4を誘導し、プログラム可能なスパイキングニューロン配列ASICのための合成可能かつ機能的なベリログ記述を生成するプロンプトを提案する。
この設計フローは、自然言語駆動ハードウェア設計にChatGPT4を使用している現状を示している。
- 参考スコア(独自算出の注目度): 1.137846619087643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have made headlines for synthesizing
correct-sounding responses to a variety of prompts, including code generation.
In this paper, we present the prompts used to guide ChatGPT4 to produce a
synthesizable and functional verilog description for the entirety of a
programmable Spiking Neuron Array ASIC. This design flow showcases the current
state of using ChatGPT4 for natural language driven hardware design. The
AI-generated design was verified in simulation using handcrafted testbenches
and has been submitted for fabrication in Skywater 130nm through Tiny Tapeout 5
using an open-source EDA flow.
- Abstract(参考訳): 大規模な言語モデル(llm)は、コード生成を含むさまざまなプロンプトに対する正しい音声応答を合成するための見出しを作った。
本稿では,ChatGPT4を誘導し,プログラム可能なスパイキングニューロン配列ASICの全体について,合成可能かつ機能的なベリログ記述を生成するプロンプトを提案する。
この設計フローは、自然言語駆動ハードウェア設計にChatGPT4を使用している現状を示している。
このAI生成設計は手作りテストベンチを用いてシミュレーションで検証され、オープンソースのEDAフローを用いてTiny Tapeout 5を介してスカイウォーター130nmで製造された。
関連論文リスト
- Natural Language to Verilog: Design of a Recurrent Spiking Neural Network using Large Language Models and ChatGPT [0.08388591755871733]
我々はOpenAIのChatGPT4を用いて、プログラム可能な繰り返しスパイクニューラルネットワークのRTL Verilogモジュールを合成する。
得られた設計は、排他的OR、IRIS花分類、MNIST手書き桁分類の3つのケーススタディで検証され、96.6%の精度を達成した。
論文 参考訳(メタデータ) (2024-05-02T16:08:08Z) - Explaining EDA synthesis errors with LLMs [10.665347817363623]
大規模言語モデル(LLM)は、テキスト理解と質問応答能力を示している。
我々は,21種類のバグコードサンプル上に3つのOpenAI LLMを用いて,936個のエラーメッセージ説明を生成する。
その結果, 約71%のケースにおいて, LLMは初等学習者に適した正解と完全解法を与えることがわかった。
論文 参考訳(メタデータ) (2024-04-07T07:12:16Z) - ChatGPT for PLC/DCS Control Logic Generation [1.773257587850857]
生成AIを提供する大規模言語モデル(LLM)は、ソースコードの作成、要約、最適化、文書化においてソフトウェアエンジニアをサポートするために人気を集めている。
LLMがプログラミングタスクで典型的な制御プログラム言語を使用して制御エンジニアをどのようにサポートできるかは、まだ分かっていない。
10のカテゴリで100個のLCMプロンプトを作成し、自然言語からPLCとDCSの制御ロジック生成を解析した。
論文 参考訳(メタデータ) (2023-05-25T07:46:53Z) - Chip-Chat: Challenges and Opportunities in Conversational Hardware
Design [27.760832802199637]
人工知能(AI)は、マシンベースのエンドツーエンド翻訳の能力を実証した。
LLM(Large Language Models)は、様々なプログラミング言語でコードを生成することができると主張している。
この「チップチャット」は、私たちが世界で初めて完全にAIで書かれたテープアウト用HDLだと信じているものになったと信じています。
論文 参考訳(メタデータ) (2023-05-22T17:13:33Z) - DeepA: A Deep Neural Analyzer For Speech And Singing Vocoding [71.73405116189531]
本稿では,従来のボコーダで定義されている音声をエミュレートする入力音声から,F0と音節/音節/音節のエンコーディングを抽出するニューラルボコーダを提案する。
ディープ・ニューラル・アナライザは学習可能であるため、信号の再構成と操作がより正確であり、音声から歌への一般化が期待できる。
論文 参考訳(メタデータ) (2021-10-13T01:39:57Z) - Speech Command Recognition in Computationally Constrained Environments
with a Quadratic Self-organized Operational Layer [92.37382674655942]
軽量ネットワークの音声コマンド認識能力を向上するネットワーク層を提案する。
この手法はテイラー展開と二次形式の概念を借用し、入力層と隠蔽層の両方における特徴のより良い表現を構築する。
このリッチな表現は、Google音声コマンド(GSC)と合成音声コマンド(SSC)データセットに関する広範な実験で示されているように、認識精度の向上をもたらす。
論文 参考訳(メタデータ) (2020-11-23T14:40:18Z) - Type-driven Neural Programming by Example [0.0]
我々は、与えられた入力を与えられた出力にマッピングするプログラムを見つけることを目的とした、例によるプログラミング(PBE)について考察する。
本稿では,プログラム型をPBEのためのニューラルプログラム合成手法に組み込む方法を提案する。
論文 参考訳(メタデータ) (2020-08-28T12:30:05Z) - Investigation of learning abilities on linguistic features in
sequence-to-sequence text-to-speech synthesis [48.151894340550385]
ニューラルシークエンス・ツー・シークエンス・テキスト・トゥ・音声合成(TTS)は、テキストや音素のような単純な言語的特徴から直接高品質な音声を生成することができる。
ニューラルシークエンス・ツー・シークエンス TTS が日本語と英語でどのように機能するかを考察する。
論文 参考訳(メタデータ) (2020-05-20T23:26:14Z) - Improved Code Summarization via a Graph Neural Network [96.03715569092523]
一般に、ソースコード要約技術はソースコードを入力として使用し、自然言語記述を出力する。
これらの要約を生成するために、ASTのデフォルト構造によくマッチするグラフベースのニューラルアーキテクチャを使用するアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:36:42Z) - CodeBERT: A Pre-Trained Model for Programming and Natural Languages [117.34242908773061]
CodeBERTは、プログラミング言語(PL)とナット言語(NL)のための事前訓練されたモデルである。
我々はTransformerベースのニューラルアーキテクチャを用いたCodeBERTを開発した。
モデルパラメータの微調整による2つのNL-PLアプリケーション上でのCodeBERTの評価を行った。
論文 参考訳(メタデータ) (2020-02-19T13:09:07Z) - Synthetic Datasets for Neural Program Synthesis [66.20924952964117]
本稿では,プログラムと仕様の両方で合成データ分布のバイアスを制御し,評価するための新しい手法を提案する。
そこで我々は,Karel DSLと小さなCalculator DSLを用いて,これらの分布上でのディープネットワークのトレーニングにより,分散一般化性能が向上することが実証された。
論文 参考訳(メタデータ) (2019-12-27T21:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。