論文の概要: White-Box Reasoning: Synergizing LLM Strategy and gm/Id Data for Automated Analog Circuit Design
- arxiv url: http://arxiv.org/abs/2508.13172v1
- Date: Sat, 09 Aug 2025 01:25:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-24 10:27:26.517284
- Title: White-Box Reasoning: Synergizing LLM Strategy and gm/Id Data for Automated Analog Circuit Design
- Title(参考訳): ホワイトボックス推論:自動アナログ回路設計のためのLCM戦略とgm/Idデータの同期化
- Authors: Jianqiu Chen, Siqi Li, Xu He,
- Abstract要約: 本稿では,LLMの戦略的推論とgm/Id方法論の物理的精度を統合する「シネジスティック推論」フレームワークを提案する。
当社のフレームワークは, シニアエンジニアの設計と比較して, 精度のオーダー・オブ・マグニチュードの改善を図りながら, 準エキスパートの質を達成している。
- 参考スコア(独自算出の注目度): 12.945607121034124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analog IC design is a bottleneck due to its reliance on experience and inefficient simulations, as traditional formulas fail in advanced nodes. Applying Large Language Models (LLMs) directly to this problem risks mere "guessing" without engineering principles. We present a "synergistic reasoning" framework that integrates an LLM's strategic reasoning with the physical precision of the gm/Id methodology. By empowering the LLM with gm/Id lookup tables, it becomes a quantitative, data-driven design partner. We validated this on a two-stage op-amp, where our framework enabled the Gemini model to meet all TT corner specs in 5 iterations and extended optimization to all PVT corners. A crucial ablation study proved gm/Id data is key for this efficiency and precision; without it, the LLM is slower and deviates. Compared to a senior engineer's design, our framework achieves quasi-expert quality with an order-of-magnitude improvement in efficiency. This work validates a path for true analog design automation by combining LLM reasoning with scientific circuit design methodologies.
- Abstract(参考訳): アナログIC設計は、従来の公式が先進ノードで失敗するため、経験と非効率なシミュレーションに依存しているためボトルネックとなっている。
この問題にLLM(Large Language Models)を直接適用することは、エンジニアリングの原則を使わずに、単なる"口論(guessing)"のリスクである。
本稿では,LLMの戦略的推論とgm/Id方法論の物理的精度を統合する「シネジスティック推論」フレームワークを提案する。
gm/IdのルックアップテーブルでLLMをパワーアップすることで、定量データ駆動設計パートナーとなる。
当社のフレームワークは,すべてのTTコーナー仕様を5イテレーションで満たし,すべてのPVTコーナーに最適化することを可能にする2段階のオプトアンプで,これを検証しました。
gm/Idデータがこの効率と精度の鍵となることが重要なアブレーション研究により証明された。
当社のフレームワークは, シニアエンジニアの設計と比較して, 精度のオーダー・オブ・マグニチュードの改善を図りながら, 準エキスパートの質を達成している。
本研究は,LLM推論と科学回路設計手法を組み合わせることで,真のアナログ設計自動化の道筋を検証する。
関連論文リスト
- Can Reasoning Models Reason about Hardware? An Agentic HLS Perspective [18.791753740931185]
OpenAI o3-mini と DeepSeek-R1 は Chain-of-Thought (CoT) を通じて推論を強化している
本稿では, LLM の推論が高レベル合成(HLS)設計空間探索と最適化の課題に対処できるかどうかを検討する。
論文 参考訳(メタデータ) (2025-03-17T01:21:39Z) - VeriMind: Agentic LLM for Automated Verilog Generation with a Novel Evaluation Metric [4.590930025882158]
We propose VeriMind, a agentic LLM framework for Verilog code generation。
本稿では,従来のpass@k測度とARC(Average Refinement Cycles)を組み合わせた新しい評価手法を提案する。
様々なハードウェア設計タスクの実験結果によると、我々のアプローチはpass@kメトリックで最大8.3%、pass@ARCメトリックで最大8.1%向上した。
論文 参考訳(メタデータ) (2025-03-15T23:43:06Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark [166.40879020706151]
本稿では、微調整時のメモリコスト低減のためのソリューションとして、BPフリーゼロオーダー最適化(ZO)への移行を提案する。
従来のZO-SGD法とは異なり、我々の研究はより広い範囲のZO最適化手法に探索を広げる。
本研究は,タスクアライメントの重要性,前方勾配法の役割,アルゴリズムの複雑さと微調整性能のバランスについて,これまで見過ごされてきた最適化原理を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T14:08:48Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。