論文の概要: Designing Silicon Brains using LLM: Leveraging ChatGPT for Automated
Description of a Spiking Neuron Array
- arxiv url: http://arxiv.org/abs/2402.10920v1
- Date: Thu, 25 Jan 2024 21:21:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-25 17:18:02.268414
- Title: Designing Silicon Brains using LLM: Leveraging ChatGPT for Automated
Description of a Spiking Neuron Array
- Title(参考訳): LLMを用いたシリコン脳の設計:スパイキングニューロンアレイの自動記述のためのChatGPTの活用
- Authors: Michael Tomlinson, Joe Li, Andreas Andreou
- Abstract要約: 本稿では、ChatGPT4を誘導し、プログラム可能なスパイキングニューロン配列ASICのための合成可能かつ機能的なベリログ記述を生成するプロンプトを提案する。
この設計フローは、自然言語駆動ハードウェア設計にChatGPT4を使用している現状を示している。
- 参考スコア(独自算出の注目度): 1.137846619087643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have made headlines for synthesizing
correct-sounding responses to a variety of prompts, including code generation.
In this paper, we present the prompts used to guide ChatGPT4 to produce a
synthesizable and functional verilog description for the entirety of a
programmable Spiking Neuron Array ASIC. This design flow showcases the current
state of using ChatGPT4 for natural language driven hardware design. The
AI-generated design was verified in simulation using handcrafted testbenches
and has been submitted for fabrication in Skywater 130nm through Tiny Tapeout 5
using an open-source EDA flow.
- Abstract(参考訳): 大規模な言語モデル(llm)は、コード生成を含むさまざまなプロンプトに対する正しい音声応答を合成するための見出しを作った。
本稿では,ChatGPT4を誘導し,プログラム可能なスパイキングニューロン配列ASICの全体について,合成可能かつ機能的なベリログ記述を生成するプロンプトを提案する。
この設計フローは、自然言語駆動ハードウェア設計にChatGPT4を使用している現状を示している。
このAI生成設計は手作りテストベンチを用いてシミュレーションで検証され、オープンソースのEDAフローを用いてTiny Tapeout 5を介してスカイウォーター130nmで製造された。
関連論文リスト
- NoviCode: Generating Programs from Natural Language Utterances by Novices [59.71218039095155]
初心者非プログラマによるAPIと自然言語記述を入力とする新しいNLプログラミングタスクであるNoviCodeを提示する。
我々は、NoviCodeがコード合成領域における挑戦的なタスクであることを示し、非技術的命令から複雑なコードを生成することは、現在のText-to-Codeパラダイムを超えている。
論文 参考訳(メタデータ) (2024-07-15T11:26:03Z) - Natural Language to Verilog: Design of a Recurrent Spiking Neural Network using Large Language Models and ChatGPT [0.08388591755871733]
我々はOpenAIのChatGPT4と自然言語プロンプトを使ってハードウェア記述コード、すなわちVerilogを生成する。
得られた設計は、3つの単純な機械学習タスク、排他的OR、IRIS花の分類、MNIST手書き桁の分類で検証された。
デザインはEfabless Tiny Tapeout 6に提出された。
論文 参考訳(メタデータ) (2024-05-02T16:08:08Z) - CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [56.019447113206006]
大規模言語モデル(LLM)はコード生成において顕著な進歩を遂げた。
CodeIPは、新しいマルチビット透かし技術で、出所の詳細を保存するために追加情報を埋め込む。
5つのプログラミング言語にまたがる実世界のデータセットで実施された実験は、CodeIPの有効性を実証している。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - LLM-aided explanations of EDA synthesis errors [10.665347817363623]
大規模言語モデル(LLM)は、テキスト理解と質問応答能力を示している。
我々は,21種類のバグコードサンプル上に3つのOpenAI LLMを用いて,936個のエラーメッセージ説明を生成する。
その結果, 約71%のケースにおいて, LLMは初等学習者に適した正解と完全解法を与えることがわかった。
論文 参考訳(メタデータ) (2024-04-07T07:12:16Z) - Design2Code: Benchmarking Multimodal Code Generation for Automated Front-End Engineering [74.99736967448423]
私たちは、このタスクのための最初の実世界のベンチマークであるDesign2Codeを構築します。
テストケースとして484の多様な実世界のWebページを手作業でキュレートし、自動評価指標のセットを開発する。
我々の詳細なブレークダウンメトリクスは、入力されたWebページから視覚要素をリコールし、正しいレイアウト設計を生成するモデルがほとんど遅れていることを示している。
論文 参考訳(メタデータ) (2024-03-05T17:56:27Z) - ChatGPT for PLC/DCS Control Logic Generation [1.773257587850857]
生成AIを提供する大規模言語モデル(LLM)は、ソースコードの作成、要約、最適化、文書化においてソフトウェアエンジニアをサポートするために人気を集めている。
LLMがプログラミングタスクで典型的な制御プログラム言語を使用して制御エンジニアをどのようにサポートできるかは、まだ分かっていない。
10のカテゴリで100個のLCMプロンプトを作成し、自然言語からPLCとDCSの制御ロジック生成を解析した。
論文 参考訳(メタデータ) (2023-05-25T07:46:53Z) - Chip-Chat: Challenges and Opportunities in Conversational Hardware
Design [27.760832802199637]
人工知能(AI)は、マシンベースのエンドツーエンド翻訳の能力を実証した。
LLM(Large Language Models)は、様々なプログラミング言語でコードを生成することができると主張している。
この「チップチャット」は、私たちが世界で初めて完全にAIで書かれたテープアウト用HDLだと信じているものになったと信じています。
論文 参考訳(メタデータ) (2023-05-22T17:13:33Z) - Type-driven Neural Programming by Example [0.0]
我々は、与えられた入力を与えられた出力にマッピングするプログラムを見つけることを目的とした、例によるプログラミング(PBE)について考察する。
本稿では,プログラム型をPBEのためのニューラルプログラム合成手法に組み込む方法を提案する。
論文 参考訳(メタデータ) (2020-08-28T12:30:05Z) - Investigation of learning abilities on linguistic features in
sequence-to-sequence text-to-speech synthesis [48.151894340550385]
ニューラルシークエンス・ツー・シークエンス・テキスト・トゥ・音声合成(TTS)は、テキストや音素のような単純な言語的特徴から直接高品質な音声を生成することができる。
ニューラルシークエンス・ツー・シークエンス TTS が日本語と英語でどのように機能するかを考察する。
論文 参考訳(メタデータ) (2020-05-20T23:26:14Z) - Improved Code Summarization via a Graph Neural Network [96.03715569092523]
一般に、ソースコード要約技術はソースコードを入力として使用し、自然言語記述を出力する。
これらの要約を生成するために、ASTのデフォルト構造によくマッチするグラフベースのニューラルアーキテクチャを使用するアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:36:42Z) - Synthetic Datasets for Neural Program Synthesis [66.20924952964117]
本稿では,プログラムと仕様の両方で合成データ分布のバイアスを制御し,評価するための新しい手法を提案する。
そこで我々は,Karel DSLと小さなCalculator DSLを用いて,これらの分布上でのディープネットワークのトレーニングにより,分散一般化性能が向上することが実証された。
論文 参考訳(メタデータ) (2019-12-27T21:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。