論文の概要: SPICEPilot: Navigating SPICE Code Generation and Simulation with AI Guidance
- arxiv url: http://arxiv.org/abs/2410.20553v1
- Date: Sun, 27 Oct 2024 18:58:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:21:32.064869
- Title: SPICEPilot: Navigating SPICE Code Generation and Simulation with AI Guidance
- Title(参考訳): SPICEPilot: AIガイダンスによるSPICEコード生成とシミュレーションのナビゲート
- Authors: Deepak Vungarala, Sakila Alam, Arnob Ghosh, Shaahin Angizi,
- Abstract要約: 大規模言語モデル(LLM)は、コード生成を自動化する大きな可能性を示しています。
しかし、ハードウェア固有の知識が不足しているため、正確な回路レベルのSPICEコードを生成する能力は限られている。
PySpiceを使って生成されたPythonベースの新しいデータセットであるSPICEPilotと、それに伴うフレームワークについて述べる。
- 参考スコア(独自算出の注目度): 5.979778557940213
- License:
- Abstract: Large Language Models (LLMs) have shown great potential in automating code generation; however, their ability to generate accurate circuit-level SPICE code remains limited due to a lack of hardware-specific knowledge. In this paper, we analyze and identify the typical limitations of existing LLMs in SPICE code generation. To address these limitations, we present SPICEPilot a novel Python-based dataset generated using PySpice, along with its accompanying framework. This marks a significant step forward in automating SPICE code generation across various circuit configurations. Our framework automates the creation of SPICE simulation scripts, introduces standardized benchmarking metrics to evaluate LLM's ability for circuit generation, and outlines a roadmap for integrating LLMs into the hardware design process. SPICEPilot is open-sourced under the permissive MIT license at https://github.com/ACADLab/SPICEPilot.git.
- Abstract(参考訳): 大規模言語モデル(LLM)はコード生成の自動化に大きな可能性を示しているが、ハードウェア固有の知識が不足しているため、正確な回路レベルのSPICEコードを生成する能力は限られている。
本稿では,SPICE コード生成における既存の LLM の典型的限界を分析し,同定する。
これらの制限に対処するため、PySpiceを使って生成された新しいPythonベースのデータセットであるSPICEPilotと、それに伴うフレームワークを提示する。
これは、様々な回路構成でSPICEコード生成を自動化する上で、大きな前進となる。
本フレームワークは,SPICEシミュレーションスクリプトの作成を自動化するとともに,LCMの回路生成能力を評価するための標準化されたベンチマーク指標を導入し,LCMをハードウェア設計プロセスに統合するためのロードマップを概説する。
SPICEPilotはMITライセンスでhttps://github.com/ACADLab/SPICEPilot.gitでオープンソース化されている。
関連論文リスト
- Exploring Code Language Models for Automated HLS-based Hardware Generation: Benchmark, Infrastructure and Analysis [49.998130983414924]
LLM(Large Language Model)は、PythonやC++などのプログラミング言語に使用される。
本稿では,LLMを利用してHLS(High-Level Synthesis)ベースのハードウェア設計を行う。
論文 参考訳(メタデータ) (2025-02-19T17:53:59Z) - SnipGen: A Mining Repository Framework for Evaluating LLMs for Code [51.07471575337676]
言語モデル(LLM)は、コードリポジトリを含む広範なデータセットに基づいてトレーニングされる。
それらの有効性を評価することは、トレーニングに使用されるデータセットと評価に使用されるデータセットとが重複する可能性があるため、大きな課題となる。
SnipGenは、コード生成のために、様々な下流タスクをまたいだ迅速なエンジニアリングを活用するように設計された包括的なリポジトリマイニングフレームワークである。
論文 参考訳(メタデータ) (2025-02-10T21:28:15Z) - LLMs for Generation of Architectural Components: An Exploratory Empirical Study in the Serverless World [0.0]
本稿では,関数・アズ・ア・サービス(F)のためのアーキテクチャコンポーネントを生成するための大規模言語モデルの有用性について検討する。
アーキテクチャコンポーネントの小さなサイズは、このアーキテクチャスタイルを現在のLLMを使って生成可能にする。
我々は、リポジトリに存在する既存のテストを通じて正確性を評価し、ソフトウェア工学(SE)と自然言語処理(NLP)ドメインのメトリクスを使用する。
論文 参考訳(メタデータ) (2025-02-04T18:06:04Z) - Multi-Programming Language Sandbox for LLMs [78.99934332554963]
大規模言語モデル(LLM)用のコンパイラと分析ツールから統一的で包括的なフィードバックを提供するように設計された、アウト・オブ・ザ・ボックスのマルチプログラミング言語サンドボックス
コードのプログラミング言語を自動的に識別し、独立したサブサンドボックス内でコンパイルして実行することで、安全性と安定性を確保することができる。
論文 参考訳(メタデータ) (2024-10-30T14:46:43Z) - MALPOLON: A Framework for Deep Species Distribution Modeling [3.1457219084519004]
MALPOLONは深部種分布モデル(deep-SDM)の訓練と推測を容易にすることを目的としている
Pythonで書かれ、PyTorchライブラリ上に構築されている。
このフレームワークはGitHubとPyPiでオープンソース化されている。
論文 参考訳(メタデータ) (2024-09-26T17:45:10Z) - MESS: Modern Electronic Structure Simulations [0.0]
電子構造シミュレーション(Electronic Structure Simulation, ESS)は、原子論的なスケールに関する定量的科学的知見を提供するために何十年も使われてきた。
最近の機械学習(ML)の導入は、MLモデルをFORTRANやCといった言語でコーディングする必要があることを意味している。
我々は、JAXで実装された最新の電子構造シミュレーションパッケージであるMESSを紹介し、ESSコードをMLの世界に移植する。
論文 参考訳(メタデータ) (2024-06-05T10:15:16Z) - CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [56.019447113206006]
大規模言語モデル(LLM)はコード生成において顕著な進歩を遂げた。
CodeIPは、新しいマルチビット透かし技術で、出所の詳細を保持するために追加情報を挿入する。
5つのプログラミング言語にまたがる実世界のデータセットで実施された実験は、CodeIPの有効性を実証している。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - LLM4EDA: Emerging Progress in Large Language Models for Electronic
Design Automation [74.7163199054881]
大規模言語モデル(LLM)は、文脈理解、論理推論、回答生成においてその能力を実証している。
本稿では,EDA分野におけるLLMの応用に関する系統的研究を行う。
論理合成,物理設計,マルチモーダル特徴抽出,回路のアライメントにLLMを適用することに焦点を当て,今後の研究の方向性を強調した。
論文 参考訳(メタデータ) (2023-12-28T15:09:14Z) - LaMPilot: An Open Benchmark Dataset for Autonomous Driving with Language Model Programs [33.09165309585287]
本稿では,Large Language Modelsを自律走行システムに統合するフレームワークであるLaMPilotを紹介する。
我々はLaMPilot-Benchにおける既設LLMの性能評価実験を行った。
この結果から,多様な運転シナリオの処理や運転時のユーザ指示に従う上でのLLMの可能性が示された。
論文 参考訳(メタデータ) (2023-12-07T15:43:52Z) - LM-Polygraph: Uncertainty Estimation for Language Models [71.21409522341482]
不確実性推定(UE)手法は、大規模言語モデル(LLM)の安全性、責任性、効果的な利用のための1つの経路である。
テキスト生成タスクにおけるLLMの最先端UEメソッドのバッテリを実装したフレームワークであるLM-PolygraphをPythonで統一したプログラムインタフェースで導入する。
研究者によるUEテクニックの一貫した評価のための拡張可能なベンチマークと、信頼スコア付き標準チャットダイアログを強化するデモWebアプリケーションを導入している。
論文 参考訳(メタデータ) (2023-11-13T15:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。