論文の概要: SPICEPilot: Navigating SPICE Code Generation and Simulation with AI Guidance
- arxiv url: http://arxiv.org/abs/2410.20553v1
- Date: Sun, 27 Oct 2024 18:58:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:21:32.064869
- Title: SPICEPilot: Navigating SPICE Code Generation and Simulation with AI Guidance
- Title(参考訳): SPICEPilot: AIガイダンスによるSPICEコード生成とシミュレーションのナビゲート
- Authors: Deepak Vungarala, Sakila Alam, Arnob Ghosh, Shaahin Angizi,
- Abstract要約: 大規模言語モデル(LLM)は、コード生成を自動化する大きな可能性を示しています。
しかし、ハードウェア固有の知識が不足しているため、正確な回路レベルのSPICEコードを生成する能力は限られている。
PySpiceを使って生成されたPythonベースの新しいデータセットであるSPICEPilotと、それに伴うフレームワークについて述べる。
- 参考スコア(独自算出の注目度): 5.979778557940213
- License:
- Abstract: Large Language Models (LLMs) have shown great potential in automating code generation; however, their ability to generate accurate circuit-level SPICE code remains limited due to a lack of hardware-specific knowledge. In this paper, we analyze and identify the typical limitations of existing LLMs in SPICE code generation. To address these limitations, we present SPICEPilot a novel Python-based dataset generated using PySpice, along with its accompanying framework. This marks a significant step forward in automating SPICE code generation across various circuit configurations. Our framework automates the creation of SPICE simulation scripts, introduces standardized benchmarking metrics to evaluate LLM's ability for circuit generation, and outlines a roadmap for integrating LLMs into the hardware design process. SPICEPilot is open-sourced under the permissive MIT license at https://github.com/ACADLab/SPICEPilot.git.
- Abstract(参考訳): 大規模言語モデル(LLM)はコード生成の自動化に大きな可能性を示しているが、ハードウェア固有の知識が不足しているため、正確な回路レベルのSPICEコードを生成する能力は限られている。
本稿では,SPICE コード生成における既存の LLM の典型的限界を分析し,同定する。
これらの制限に対処するため、PySpiceを使って生成された新しいPythonベースのデータセットであるSPICEPilotと、それに伴うフレームワークを提示する。
これは、様々な回路構成でSPICEコード生成を自動化する上で、大きな前進となる。
本フレームワークは,SPICEシミュレーションスクリプトの作成を自動化するとともに,LCMの回路生成能力を評価するための標準化されたベンチマーク指標を導入し,LCMをハードウェア設計プロセスに統合するためのロードマップを概説する。
SPICEPilotはMITライセンスでhttps://github.com/ACADLab/SPICEPilot.gitでオープンソース化されている。
関連論文リスト
- Multi-Programming Language Sandbox for LLMs [78.99934332554963]
大規模言語モデル(LLM)用のコンパイラと分析ツールから統一的で包括的なフィードバックを提供するように設計された、アウト・オブ・ザ・ボックスのマルチプログラミング言語サンドボックス
コードのプログラミング言語を自動的に識別し、独立したサブサンドボックス内でコンパイルして実行することで、安全性と安定性を確保することができる。
論文 参考訳(メタデータ) (2024-10-30T14:46:43Z) - An Empirical Study of Large Language Models for Type and Call Graph Analysis [3.385461018649221]
大規模言語モデル(LLM)は、ソフトウェア工学におけるその可能性のために、ますます研究されている。
本研究では,Python および JavaScript プログラムのコールグラフ解析と型推論を強化するため,現在の LLM の可能性について検討する。
我々は、OpenAIのGPTシリーズやLLaMAやMistralといったオープンソースモデルを含む24のLLMを実証的に評価した。
論文 参考訳(メタデータ) (2024-10-01T11:44:29Z) - MALPOLON: A Framework for Deep Species Distribution Modeling [3.1457219084519004]
MALPOLONは深部種分布モデル(deep-SDM)の訓練と推測を容易にすることを目的としている
Pythonで書かれ、PyTorchライブラリ上に構築されている。
このフレームワークはGitHubとPyPiでオープンソース化されている。
論文 参考訳(メタデータ) (2024-09-26T17:45:10Z) - VersiCode: Towards Version-controllable Code Generation [58.82709231906735]
大規模言語モデル(LLM)は、コード生成において大きな進歩を遂げていますが、既存の研究は、ソフトウェア開発の動的な性質を説明できません。
バージョン別コード補完(VSCC)とバージョン別コードマイグレーション(VACM)の2つの新しいタスクを提案する。
VersiCodeについて広範な評価を行い、バージョン管理可能なコード生成が確かに重要な課題であることを示した。
論文 参考訳(メタデータ) (2024-06-11T16:15:06Z) - MESS: Modern Electronic Structure Simulations [0.0]
電子構造シミュレーション(Electronic Structure Simulation, ESS)は、原子論的なスケールに関する定量的科学的知見を提供するために何十年も使われてきた。
最近の機械学習(ML)の導入は、MLモデルをFORTRANやCといった言語でコーディングする必要があることを意味している。
我々は、JAXで実装された最新の電子構造シミュレーションパッケージであるMESSを紹介し、ESSコードをMLの世界に移植する。
論文 参考訳(メタデータ) (2024-06-05T10:15:16Z) - CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [56.019447113206006]
大規模言語モデル(LLM)はコード生成において顕著な進歩を遂げた。
CodeIPは、新しいマルチビット透かし技術で、出所の詳細を保存するために追加情報を埋め込む。
5つのプログラミング言語にまたがる実世界のデータセットで実施された実験は、CodeIPの有効性を実証している。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - PIN: Positional Insert Unlocks Object Localisation Abilities in VLMs [55.8550939439138]
VLM(Vision-Language Models)は、大きな言語モデルと視覚システムを統合することで、大きな可能性を秘めている。
これらのモデルは、主にキャプションを含むマルチモーダルデータに対するトレーニングのため、オブジェクトローカライゼーションの基本的なコンピュータビジョンタスクにおいて課題に直面している。
本稿では,空間的プロンプトであるPIN(Input-Agnostic Positional Insert)を導入する。
我々のPINモジュールは、新しい出力ヘッドを必要とせずに、合成データに対する単純な次トーケン予測タスクで訓練されている。
論文 参考訳(メタデータ) (2024-02-13T18:39:18Z) - LLM4EDA: Emerging Progress in Large Language Models for Electronic
Design Automation [74.7163199054881]
大規模言語モデル(LLM)は、文脈理解、論理推論、回答生成においてその能力を実証している。
本稿では,EDA分野におけるLLMの応用に関する系統的研究を行う。
論理合成,物理設計,マルチモーダル特徴抽出,回路のアライメントにLLMを適用することに焦点を当て,今後の研究の方向性を強調した。
論文 参考訳(メタデータ) (2023-12-28T15:09:14Z) - LaMPilot: An Open Benchmark Dataset for Autonomous Driving with Language Model Programs [33.09165309585287]
本稿では,Large Language Modelsを自律走行システムに統合するフレームワークであるLaMPilotを紹介する。
我々はLaMPilot-Benchにおける既設LLMの性能評価実験を行った。
この結果から,多様な運転シナリオの処理や運転時のユーザ指示に従う上でのLLMの可能性が示された。
論文 参考訳(メタデータ) (2023-12-07T15:43:52Z) - LM-Polygraph: Uncertainty Estimation for Language Models [71.21409522341482]
不確実性推定(UE)手法は、大規模言語モデル(LLM)の安全性、責任性、効果的な利用のための1つの経路である。
テキスト生成タスクにおけるLLMの最先端UEメソッドのバッテリを実装したフレームワークであるLM-PolygraphをPythonで統一したプログラムインタフェースで導入する。
研究者によるUEテクニックの一貫した評価のための拡張可能なベンチマークと、信頼スコア付き標準チャットダイアログを強化するデモWebアプリケーションを導入している。
論文 参考訳(メタデータ) (2023-11-13T15:08:59Z) - RedCoast: A Lightweight Tool to Automate Distributed Training of LLMs on Any GPU/TPUs [32.01139974519813]
大規模言語モデル(LLM)の分散トレーニングと推論を自動化するツールであるRedCoastを紹介する。
また,3つの関数の定義により,多様なMLパイプラインをカスタマイズする機構を提案する。
その結果、Redcoの実装は公式実装に比べてコード行数が大幅に減った。
論文 参考訳(メタデータ) (2023-10-25T04:32:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。