論文の概要: Evaluating LLM-based Workflows for Switched-Mode Power Supply Design
- arxiv url: http://arxiv.org/abs/2507.10639v2
- Date: Fri, 07 Nov 2025 14:25:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 14:56:00.004247
- Title: Evaluating LLM-based Workflows for Switched-Mode Power Supply Design
- Title(参考訳): スイッチトモード電源設計のためのLCMワークフローの評価
- Authors: Simon Nau, Jan Krummenauer, André Zimmermann,
- Abstract要約: 2つのベンチマーク実験を行い、異なる設計タスクのためのLCMベースのアシスタントの性能を解析した。
実験の結果,SPICEシミュレーションのフィードバックと推理などの現在の進歩により,手作業によるベンチマークタスク269件の解決率は15%から91%に大幅に向上した。
- 参考スコア(独自算出の注目度): 0.3823356975862005
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) have great potential to enhance productivity in many disciplines, such as software engineering. However, it is unclear to what extent they can assist in the design process of electronic circuits. This paper focuses on the application of LLMs to switched-mode power supply (SMPS) design for printed circuit boards (PCBs). We present multiple LLM-based workflows that combine reasoning, retrieval-augmented generation (RAG), and a custom toolkit that enables the LLM to interact with SPICE simulations to estimate the impact of circuit modifications. Two benchmark experiments are presented to analyze the performance of LLM-based assistants for different design tasks, including parameter tuning, topology adaption and optimization of SMPS circuits. Experiment results show that SPICE simulation feedback and current LLM advancements, such as reasoning, significantly increase the solve rate on 269 manually created benchmark tasks from 15% to 91%. Furthermore, our analysis reveals that most parameter tuning design tasks can be solved, while limits remain for certain topology adaption tasks. Our experiments offer insights for improving current concepts, for example by adapting text-based circuit representations
- Abstract(参考訳): 大規模言語モデル(LLM)は、ソフトウェア工学など、多くの分野において生産性を高める大きな可能性を秘めています。
しかし、電子回路の設計過程をどの程度支援できるかは定かではない。
本稿では,プリント回路基板(PCB)のスイッチングモード電源(SMPS)設計におけるLCMの適用に焦点をあてる。
推論,検索拡張生成(RAG)と,SPICEシミュレーションと対話して回路修正の影響を推定するカスタムツールキットを組み合わせた複数のLLMベースのワークフローを提案する。
パラメータチューニング,トポロジ適応,SMPS回路の最適化など,異なる設計タスクのためのLCMベースのアシスタントの性能解析を行うために,2つのベンチマーク実験を行った。
実験の結果,SPICEシミュレーションのフィードバックと推理などの現在のLCMの進歩により,手作業によるベンチマークタスク269件の解決率が15%から91%に大幅に向上した。
さらに,パラメータチューニング設計タスクのほとんどを解くことができる一方で,特定のトポロジ適応タスクには制限が残っていることを明らかにする。
私たちの実験は、例えばテキストベースの回路表現を適応させることによって、現在の概念を改善するための洞察を提供する。
関連論文リスト
- PLAN-TUNING: Post-Training Language Models to Learn Step-by-Step Planning for Complex Problem Solving [66.42260489147617]
大規模言語モデルから合成タスク分解を蒸留するフレームワークであるPLAN-TUNINGを紹介する。
複雑な推論を改善するために、教師付きおよび強化学習の目的を通したプランチューン細管モデル。
本分析は,計画軌道が複雑な推論能力をいかに改善するかを示す。
論文 参考訳(メタデータ) (2025-07-10T07:30:44Z) - chemtrain-deploy: A parallel and scalable framework for machine learning potentials in million-atom MD simulations [0.6240840318920522]
本稿では,MDシミュレーションにおけるLAMMPSのモデル非依存展開を可能にするフレームワークであるChemtrain-deployを提案する。
Chemtrain-deployはJAX定義の半局所ポテンシャルをサポートし、ユーザーはLAMMPSの機能を利用することができる。
最先端の効率を実現し、数百万の原子を含むシステムにスケールする。
論文 参考訳(メタデータ) (2025-06-04T15:19:26Z) - LLM-based AI Agent for Sizing of Analog and Mixed Signal Circuit [2.979579757819132]
大規模言語モデル (LLM) は様々な分野において大きな可能性を証明している。
本研究では,AMS回路設計のためのLLMベースのAIエージェントを提案する。
論文 参考訳(メタデータ) (2025-04-14T22:18:16Z) - Sustainable LLM Inference for Edge AI: Evaluating Quantized LLMs for Energy Efficiency, Output Accuracy, and Inference Latency [6.306413686006502]
我々はOllamaライブラリから28の量子化大言語モデル(LLM)を包括的に分析する。
我々は、複数の量子化レベルおよびタスクタイプにわたるエネルギー効率、推論性能、出力精度を評価する。
その結果,異なる量子化設定におけるエネルギー効率,推定速度,精度のトレードオフが明らかになった。
論文 参考訳(メタデータ) (2025-04-04T11:29:30Z) - An Empirical Study of Conformal Prediction in LLM with ASP Scaffolds for Robust Reasoning [52.29223403698673]
本稿では, Answer Set Programming (ASP) とともに, Conformal Language Modelling (CLM) の使用について検討する。
LLM から ASP プログラムの集合を生成するために CLM を適用し,出力の正確性に関する統計的保証を提供する。
実験の結果,標準サンプリング手法を用いたベースラインモデルではCLMが有意に優れていた。
論文 参考訳(メタデータ) (2025-03-07T14:10:10Z) - MAPS: Advancing Multi-Modal Reasoning in Expert-Level Physical Science [62.96434290874878]
現在のMLLM(Multi-Modal Large Language Models)は、一般的な視覚的推論タスクにおいて強力な機能を示している。
我々は,MLLMに基づく物理知覚とシミュレーションによるマルチモーダル科学推論(MAPS)という新しいフレームワークを開発した。
MAPSは、専門家レベルのマルチモーダル推論タスクを物理的知覚モデル(PPM)を介して物理図理解に分解し、シミュレータを介して物理的知識で推論する。
論文 参考訳(メタデータ) (2025-01-18T13:54:00Z) - WDMoE: Wireless Distributed Mixture of Experts for Large Language Models [68.45482959423323]
大規模言語モデル(LLM)は様々な自然言語処理タスクにおいて大きな成功を収めた。
本稿では,無線ネットワーク上での基地局(BS)およびモバイルデバイスにおけるエッジサーバ間のLLMの協調展開を実現するために,無線分散Mixture of Experts(WDMoE)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-11-11T02:48:00Z) - LLMServingSim: A HW/SW Co-Simulation Infrastructure for LLM Inference Serving at Scale [17.00936774784349]
大規模言語モデル(LLM)サービスシステムにおいて、汎用的なハードウェア・ソフトウェア動作を正確にモデル化できるシミュレーション基盤が欠如している。
本稿では,LLMServingSimと呼ばれる効率的なシミュレーションツールを開発し,LCMサービスシステムにおける今後の研究を支援することを目的とする。
論文 参考訳(メタデータ) (2024-08-10T09:26:15Z) - Enabling Large Language Models to Perform Power System Simulations with Previously Unseen Tools: A Case of Daline [1.4255659581428337]
この研究は、パワーシステムと大規模言語モデルの両方から専門知識を統合するモジュラーフレームワークを提案する。
GPT-4oのシミュレーション符号化精度は0%から96.07%に向上し、ChatGPT-4oのウェブインタフェースの33.8%の精度を上回っている。
論文 参考訳(メタデータ) (2024-06-25T02:05:26Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。