論文の概要: Evaluating LLM-based Workflows for Switched-Mode Power Supply Design
- arxiv url: http://arxiv.org/abs/2507.10639v2
- Date: Fri, 07 Nov 2025 14:25:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 14:56:00.004247
- Title: Evaluating LLM-based Workflows for Switched-Mode Power Supply Design
- Title(参考訳): スイッチトモード電源設計のためのLCMワークフローの評価
- Authors: Simon Nau, Jan Krummenauer, André Zimmermann,
- Abstract要約: 2つのベンチマーク実験を行い、異なる設計タスクのためのLCMベースのアシスタントの性能を解析した。
実験の結果,SPICEシミュレーションのフィードバックと推理などの現在の進歩により,手作業によるベンチマークタスク269件の解決率は15%から91%に大幅に向上した。
- 参考スコア(独自算出の注目度): 0.3823356975862005
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) have great potential to enhance productivity in many disciplines, such as software engineering. However, it is unclear to what extent they can assist in the design process of electronic circuits. This paper focuses on the application of LLMs to switched-mode power supply (SMPS) design for printed circuit boards (PCBs). We present multiple LLM-based workflows that combine reasoning, retrieval-augmented generation (RAG), and a custom toolkit that enables the LLM to interact with SPICE simulations to estimate the impact of circuit modifications. Two benchmark experiments are presented to analyze the performance of LLM-based assistants for different design tasks, including parameter tuning, topology adaption and optimization of SMPS circuits. Experiment results show that SPICE simulation feedback and current LLM advancements, such as reasoning, significantly increase the solve rate on 269 manually created benchmark tasks from 15% to 91%. Furthermore, our analysis reveals that most parameter tuning design tasks can be solved, while limits remain for certain topology adaption tasks. Our experiments offer insights for improving current concepts, for example by adapting text-based circuit representations
- Abstract(参考訳): 大規模言語モデル(LLM)は、ソフトウェア工学など、多くの分野において生産性を高める大きな可能性を秘めています。
しかし、電子回路の設計過程をどの程度支援できるかは定かではない。
本稿では,プリント回路基板(PCB)のスイッチングモード電源(SMPS)設計におけるLCMの適用に焦点をあてる。
推論,検索拡張生成(RAG)と,SPICEシミュレーションと対話して回路修正の影響を推定するカスタムツールキットを組み合わせた複数のLLMベースのワークフローを提案する。
パラメータチューニング,トポロジ適応,SMPS回路の最適化など,異なる設計タスクのためのLCMベースのアシスタントの性能解析を行うために,2つのベンチマーク実験を行った。
実験の結果,SPICEシミュレーションのフィードバックと推理などの現在のLCMの進歩により,手作業によるベンチマークタスク269件の解決率が15%から91%に大幅に向上した。
さらに,パラメータチューニング設計タスクのほとんどを解くことができる一方で,特定のトポロジ適応タスクには制限が残っていることを明らかにする。
私たちの実験は、例えばテキストベースの回路表現を適応させることによって、現在の概念を改善するための洞察を提供する。
関連論文リスト
- Pimp My LLM: Leveraging Variability Modeling to Tune Inference Hyperparameters [0.3186130813218338]
大規模言語モデル(LLM)は、幅広いタスクでますます使われています。
彼らの相当な計算要求は、トレーニングと推論の両方のエネルギー効率と持続可能性に関する懸念を提起する。
最近の研究は、最適化手法を探求し、構成選択がエネルギー消費にどのように影響するかを分析している。
論文 参考訳(メタデータ) (2026-02-06T16:18:22Z) - Large Language Models for Physics Instrument Design [0.0]
物理機器設計における大規模言語モデル(LLM)の利用について検討し、その性能を強化学習(RL)と比較する。
RL はより強力な最終設計をもたらすが、現代の LLM は、有効で、リソースを意識し、物理的に意味のある構成を一貫して生成する。
そのため、自動クローズドループ・インスツルメンツの設計に向け、最適化の構築と監督に要する人的労力を削減できる。
論文 参考訳(メタデータ) (2026-01-12T14:30:54Z) - PLAN-TUNING: Post-Training Language Models to Learn Step-by-Step Planning for Complex Problem Solving [66.42260489147617]
大規模言語モデルから合成タスク分解を蒸留するフレームワークであるPLAN-TUNINGを紹介する。
複雑な推論を改善するために、教師付きおよび強化学習の目的を通したプランチューン細管モデル。
本分析は,計画軌道が複雑な推論能力をいかに改善するかを示す。
論文 参考訳(メタデータ) (2025-07-10T07:30:44Z) - chemtrain-deploy: A parallel and scalable framework for machine learning potentials in million-atom MD simulations [0.6240840318920522]
本稿では,MDシミュレーションにおけるLAMMPSのモデル非依存展開を可能にするフレームワークであるChemtrain-deployを提案する。
Chemtrain-deployはJAX定義の半局所ポテンシャルをサポートし、ユーザーはLAMMPSの機能を利用することができる。
最先端の効率を実現し、数百万の原子を含むシステムにスケールする。
論文 参考訳(メタデータ) (2025-06-04T15:19:26Z) - LLM-based AI Agent for Sizing of Analog and Mixed Signal Circuit [2.979579757819132]
大規模言語モデル (LLM) は様々な分野において大きな可能性を証明している。
本研究では,AMS回路設計のためのLLMベースのAIエージェントを提案する。
論文 参考訳(メタデータ) (2025-04-14T22:18:16Z) - Sustainable LLM Inference for Edge AI: Evaluating Quantized LLMs for Energy Efficiency, Output Accuracy, and Inference Latency [6.306413686006502]
我々はOllamaライブラリから28の量子化大言語モデル(LLM)を包括的に分析する。
我々は、複数の量子化レベルおよびタスクタイプにわたるエネルギー効率、推論性能、出力精度を評価する。
その結果,異なる量子化設定におけるエネルギー効率,推定速度,精度のトレードオフが明らかになった。
論文 参考訳(メタデータ) (2025-04-04T11:29:30Z) - An Empirical Study of Conformal Prediction in LLM with ASP Scaffolds for Robust Reasoning [52.29223403698673]
本稿では, Answer Set Programming (ASP) とともに, Conformal Language Modelling (CLM) の使用について検討する。
LLM から ASP プログラムの集合を生成するために CLM を適用し,出力の正確性に関する統計的保証を提供する。
実験の結果,標準サンプリング手法を用いたベースラインモデルではCLMが有意に優れていた。
論文 参考訳(メタデータ) (2025-03-07T14:10:10Z) - RoSTE: An Efficient Quantization-Aware Supervised Fine-Tuning Approach for Large Language Models [53.571195477043496]
本稿では,RoSTE (Rotated Straight-Through-Estimator) というアルゴリズムを提案する。
RoSTEは、量子化を意識した微調整(QA-SFT)と適応的な回転戦略を組み合わせることで、アクティベーションアウトリーを減少させる。
その結果, 予測誤差は収束重みの量子化誤差と直接比例し, 最適化された回転構成により効果的に管理できることが判明した。
論文 参考訳(メタデータ) (2025-02-13T06:44:33Z) - MAPS: Advancing Multi-Modal Reasoning in Expert-Level Physical Science [62.96434290874878]
現在のMLLM(Multi-Modal Large Language Models)は、一般的な視覚的推論タスクにおいて強力な機能を示している。
我々は,MLLMに基づく物理知覚とシミュレーションによるマルチモーダル科学推論(MAPS)という新しいフレームワークを開発した。
MAPSは、専門家レベルのマルチモーダル推論タスクを物理的知覚モデル(PPM)を介して物理図理解に分解し、シミュレータを介して物理的知識で推論する。
論文 参考訳(メタデータ) (2025-01-18T13:54:00Z) - WDMoE: Wireless Distributed Mixture of Experts for Large Language Models [68.45482959423323]
大規模言語モデル(LLM)は様々な自然言語処理タスクにおいて大きな成功を収めた。
本稿では,無線ネットワーク上での基地局(BS)およびモバイルデバイスにおけるエッジサーバ間のLLMの協調展開を実現するために,無線分散Mixture of Experts(WDMoE)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-11-11T02:48:00Z) - LLMServingSim: A HW/SW Co-Simulation Infrastructure for LLM Inference Serving at Scale [17.00936774784349]
大規模言語モデル(LLM)サービスシステムにおいて、汎用的なハードウェア・ソフトウェア動作を正確にモデル化できるシミュレーション基盤が欠如している。
本稿では,LLMServingSimと呼ばれる効率的なシミュレーションツールを開発し,LCMサービスシステムにおける今後の研究を支援することを目的とする。
論文 参考訳(メタデータ) (2024-08-10T09:26:15Z) - CoMMIT: Coordinated Multimodal Instruction Tuning [90.1532838391285]
マルチモーダル大言語モデル(MLLM)は一般に、バックボーンLLMと非テキスト入力モードの特徴エンコーダ間の協調学習を含む。
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
本稿では,学習のバランスを定量的に測定できるマルチモーダルバランス係数を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - Enabling Large Language Models to Perform Power System Simulations with Previously Unseen Tools: A Case of Daline [1.4255659581428337]
この研究は、パワーシステムと大規模言語モデルの両方から専門知識を統合するモジュラーフレームワークを提案する。
GPT-4oのシミュレーション符号化精度は0%から96.07%に向上し、ChatGPT-4oのウェブインタフェースの33.8%の精度を上回っている。
論文 参考訳(メタデータ) (2024-06-25T02:05:26Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - Sample Design Engineering: An Empirical Study of What Makes Good Downstream Fine-Tuning Samples for LLMs [23.766782325052418]
本稿では,大規模言語モデルの性能向上のための方法論的アプローチであるサンプル設計工学(SDE)を紹介する。
LLMのダウンストリーム性能に対する様々な設計オプションの影響を評価するために、一連のドメイン内(ID)および外部(OOD)実験を行う。
本稿では,SDE統合戦略を提案し,最も効果的な選択肢を組み合わせるとともに,複雑な下流タスクにおけるサンプル設計よりも一貫した優位性を検証した。
論文 参考訳(メタデータ) (2024-04-19T17:47:02Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z) - Instruction Tuning for Large Language Models: A Survey [52.86322823501338]
我々は、教師付き微調整(SFT)の一般的な方法論を含む、文献の体系的なレビューを行う。
また、既存の戦略の欠陥を指摘しながら、SFTの潜在的な落とし穴についても、それに対する批判とともに検討する。
論文 参考訳(メタデータ) (2023-08-21T15:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。