論文の概要: LLM-based AI Agent for Sizing of Analog and Mixed Signal Circuit
- arxiv url: http://arxiv.org/abs/2504.11497v1
- Date: Mon, 14 Apr 2025 22:18:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:38:31.420765
- Title: LLM-based AI Agent for Sizing of Analog and Mixed Signal Circuit
- Title(参考訳): アナログ・混合信号回路の小型化のためのLLMベースAIエージェント
- Authors: Chang Liu, Emmanuel A. Olowe, Danial Chitnis,
- Abstract要約: 大規模言語モデル (LLM) は様々な分野において大きな可能性を証明している。
本研究では,AMS回路設計のためのLLMベースのAIエージェントを提案する。
- 参考スコア(独自算出の注目度): 2.979579757819132
- License:
- Abstract: The design of Analog and Mixed-Signal (AMS) integrated circuits (ICs) often involves significant manual effort, especially during the transistor sizing process. While Machine Learning techniques in Electronic Design Automation (EDA) have shown promise in reducing complexity and minimizing human intervention, they still face challenges such as numerous iterations and a lack of knowledge about AMS circuit design. Recently, Large Language Models (LLMs) have demonstrated significant potential across various fields, showing a certain level of knowledge in circuit design and indicating their potential to automate the transistor sizing process. In this work, we propose an LLM-based AI agent for AMS circuit design to assist in the sizing process. By integrating LLMs with external circuit simulation tools and data analysis functions and employing prompt engineering strategies, the agent successfully optimized multiple circuits to achieve target performance metrics. We evaluated the performance of different LLMs to assess their applicability and optimization effectiveness across seven basic circuits, and selected the best-performing model Claude 3.5 Sonnet for further exploration on an operational amplifier, with complementary input stage and class AB output stage. This circuit was evaluated against nine performance metrics, and we conducted experiments under three distinct performance requirement groups. A success rate of up to 60% was achieved for reaching the target requirements. Overall, this work demonstrates the potential of LLMs to improve AMS circuit design.
- Abstract(参考訳): Analog and Mixed-Signal (AMS) 集積回路 (IC) の設計は、特にトランジスタサイズプロセスにおいて、かなりの手作業を必要とすることが多い。
電子設計自動化(EDA)における機械学習技術は、複雑さの低減と人間の介入の最小化を約束しているが、それでも多くのイテレーションやAMS回路設計に関する知識の欠如といった課題に直面している。
近年,Large Language Models (LLM) は様々な分野において有意なポテンシャルを示し,回路設計における一定の知識と,トランジスタサイズプロセスの自動化の可能性を示している。
本研究では,AMS回路設計のためのLLMベースのAIエージェントを提案する。
LLMを外部回路シミュレーションツールやデータ解析機能と統合し、迅速なエンジニアリング戦略を採用することにより、エージェントは複数の回路を最適化し、目標の性能測定値を達成することに成功した。
各種LCMの性能評価を行い、7つの基本回路における適用性と最適化性能を評価し、最適性能モデルであるClaude 3.5 Sonnetを選択し、相補的な入力ステージとクラスAB出力ステージを備えたオペレーショナルアンプのさらなる探索を行った。
この回路を9つの性能指標に対して評価し、3つの異なる性能要求群で実験を行った。
目標の要件を達成するために、最大60%の成功率を達成した。
全体として、この研究はAMS回路設計を改善するLLMの可能性を示している。
関連論文リスト
- ECM: A Unified Electronic Circuit Model for Explaining the Emergence of In-Context Learning and Chain-of-Thought in Large Language Model [64.22300168242221]
In-Context Learning (ICL) と Chain-of-Thought (CoT) は、大規模言語モデルにおいて出現する能力である。
ICLとCoTをよりよく理解するための電子回路モデル(ECM)を提案する。
ECMは, 様々なプロンプト戦略において, LLMの性能を効果的に予測し, 説明する。
論文 参考訳(メタデータ) (2025-02-05T16:22:33Z) - Supervised Learning for Analog and RF Circuit Design: Benchmarks and Comparative Insights [10.354863964933019]
本研究では,様々な回路タイプにわたる性能仕様から回路パラメータを設計するための教師付きMLに基づくアプローチについて検討する。
その結果,低雑音増幅器などの単純な回路は,平均相対誤差を0.3%以下と極めて精度が高いことがわかった。
異種回路では、トレーニングデータの増加により誤差の88%が減少し、受信側は平均相対誤差を0.23%以下とした。
論文 参考訳(メタデータ) (2025-01-21T02:48:23Z) - MALT: Improving Reasoning with Multi-Agent LLM Training [66.9481561915524]
MALT(Multi-Agent LLM Training)は、推論プロセスを生成、検証、改善ステップに分割する、新しいポストトレーニング戦略である。
MATH、GSM8K、CSQAでは、MALTは、それぞれ15.66%、7.42%、9.40%の相対的な改善で同じベースラインLLMを上回っている。
論文 参考訳(メタデータ) (2024-12-02T19:30:36Z) - Enhancing LLMs for Power System Simulations: A Feedback-driven Multi-agent Framework [1.4255659581428337]
電力系統のシミュレーションを管理するためのフィードバック駆動型マルチエージェントフレームワークを提案する。
このフレームワークは、DalineとMATPOWERの69種類のタスクでそれぞれ93.13%と96.85%の成功率を達成した。
また、高速で費用対効果の高いタスク実行をサポートし、トークンの平均コスト0.014 USDで各シミュレーションを約30秒で完了する。
論文 参考訳(メタデータ) (2024-11-21T19:01:07Z) - AMSnet-KG: A Netlist Dataset for LLM-based AMS Circuit Auto-Design Using Knowledge Graph RAG [15.61553255884534]
大型言語モデル(LLM)は電子設計自動化(EDA)アプリケーションのための強力なツールとして登場した。
本稿では,様々なAMS回路スキーマとネットリストを含むデータセットであるAMSnet-KGを紹介する。
LLMに埋め込まれた包括的知識を利用する自動AMS回路生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-07T02:49:53Z) - Logic Synthesis Optimization with Predictive Self-Supervision via Causal Transformers [19.13500546022262]
LSOformerは、自動回帰トランスフォーマーモデルと予測SSLを利用して、結果の質の軌道(QoR)を予測する新しいアプローチである。
LSOformerは、クロスアテンションモジュールを統合して、回路グラフと最適化シーケンスからの洞察をマージし、QoRメトリクスの予測精度を向上させる。
論文 参考訳(メタデータ) (2024-09-16T18:45:07Z) - CoMMIT: Coordinated Instruction Tuning for Multimodal Large Language Models [68.64605538559312]
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
そこで本研究では,学習バランスを定量的に評価する尺度を提案する。
さらに,MLLMの生成分布の更新を促進する補助的損失正規化手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - LLM4EDA: Emerging Progress in Large Language Models for Electronic
Design Automation [74.7163199054881]
大規模言語モデル(LLM)は、文脈理解、論理推論、回答生成においてその能力を実証している。
本稿では,EDA分野におけるLLMの応用に関する系統的研究を行う。
論理合成,物理設計,マルチモーダル特徴抽出,回路のアライメントにLLMを適用することに焦点を当て,今後の研究の方向性を強調した。
論文 参考訳(メタデータ) (2023-12-28T15:09:14Z) - Adaptive Planning Search Algorithm for Analog Circuit Verification [53.97809573610992]
シミュレーションの少ない機械学習(ML)アプローチを提案する。
提案手法により,OCCを全回路の仕様に近づけることができることを示す。
論文 参考訳(メタデータ) (2023-06-23T12:57:46Z) - Analog/Mixed-Signal Circuit Synthesis Enabled by the Advancements of
Circuit Architectures and Machine Learning Algorithms [0.0]
我々は、ニューラルネットワークに基づくサロゲートモデルを用いて、回路設計パラメータの探索とレイアウトの反復を高速化する。
最後に、AMS回路のいくつかの例を、仕様からシリコンプロトタイプまで迅速に合成し、人間の介入を大幅に削減する。
論文 参考訳(メタデータ) (2021-12-15T01:47:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。