論文の概要: White-Box Reasoning: Synergizing LLM Strategy and gm/Id Data for Automated Analog Circuit Design
- arxiv url: http://arxiv.org/abs/2508.13172v1
- Date: Sat, 09 Aug 2025 01:25:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-24 10:27:26.517284
- Title: White-Box Reasoning: Synergizing LLM Strategy and gm/Id Data for Automated Analog Circuit Design
- Title(参考訳): ホワイトボックス推論:自動アナログ回路設計のためのLCM戦略とgm/Idデータの同期化
- Authors: Jianqiu Chen, Siqi Li, Xu He,
- Abstract要約: 本稿では,LLMの戦略的推論とgm/Id方法論の物理的精度を統合する「シネジスティック推論」フレームワークを提案する。
当社のフレームワークは, シニアエンジニアの設計と比較して, 精度のオーダー・オブ・マグニチュードの改善を図りながら, 準エキスパートの質を達成している。
- 参考スコア(独自算出の注目度): 12.945607121034124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analog IC design is a bottleneck due to its reliance on experience and inefficient simulations, as traditional formulas fail in advanced nodes. Applying Large Language Models (LLMs) directly to this problem risks mere "guessing" without engineering principles. We present a "synergistic reasoning" framework that integrates an LLM's strategic reasoning with the physical precision of the gm/Id methodology. By empowering the LLM with gm/Id lookup tables, it becomes a quantitative, data-driven design partner. We validated this on a two-stage op-amp, where our framework enabled the Gemini model to meet all TT corner specs in 5 iterations and extended optimization to all PVT corners. A crucial ablation study proved gm/Id data is key for this efficiency and precision; without it, the LLM is slower and deviates. Compared to a senior engineer's design, our framework achieves quasi-expert quality with an order-of-magnitude improvement in efficiency. This work validates a path for true analog design automation by combining LLM reasoning with scientific circuit design methodologies.
- Abstract(参考訳): アナログIC設計は、従来の公式が先進ノードで失敗するため、経験と非効率なシミュレーションに依存しているためボトルネックとなっている。
この問題にLLM(Large Language Models)を直接適用することは、エンジニアリングの原則を使わずに、単なる"口論(guessing)"のリスクである。
本稿では,LLMの戦略的推論とgm/Id方法論の物理的精度を統合する「シネジスティック推論」フレームワークを提案する。
gm/IdのルックアップテーブルでLLMをパワーアップすることで、定量データ駆動設計パートナーとなる。
当社のフレームワークは,すべてのTTコーナー仕様を5イテレーションで満たし,すべてのPVTコーナーに最適化することを可能にする2段階のオプトアンプで,これを検証しました。
gm/Idデータがこの効率と精度の鍵となることが重要なアブレーション研究により証明された。
当社のフレームワークは, シニアエンジニアの設計と比較して, 精度のオーダー・オブ・マグニチュードの改善を図りながら, 準エキスパートの質を達成している。
本研究は,LLM推論と科学回路設計手法を組み合わせることで,真のアナログ設計自動化の道筋を検証する。
関連論文リスト
- $\
abla$-Reasoner: LLM Reasoning via Test-Time Gradient Descent in Latent Space [71.23672814629448]
$nabla$-Reasonerは、トークンログに対する差別化可能な最適化をデコードループに統合する反復生成フレームワークである。
$nabla$-Reasonerは、挑戦的な数学的推論ベンチマークで20%以上の精度の向上を実現している。
論文 参考訳(メタデータ) (2026-03-05T08:42:54Z) - Quantum-Guided Test Case Minimization for LLM-Based Code Generation [0.42970700836450487]
テスト駆動開発(TDD)に基づいたフレームワークを導入し、コード仕様をエンジニアリング最適化タスクに変換する。
このフレームワークはまずLLMにテストスイートを生成するように促し、次にテストケース最小化(TCM)問題を準拘束不能バイナリ最適化(QUBO)モデルとして定式化する。
この研究は、生成AIとソフトウェアエンジニアリングにおける最適化の強力な相乗効果を示し、正確なモデル定式化の重要性を強調している。
論文 参考訳(メタデータ) (2025-11-19T18:00:44Z) - Leveraging Parameter Space Symmetries for Reasoning Skill Transfer in LLMs [27.978175136002005]
タスク算術は大規模言語モデル(LLM)間でスキルを伝達する強力な手法である
まずモデルのパラメータ空間をアライメントし、トランスフォーマーアーキテクチャの固有の置換、回転、スケーリング対称性を活用する。
我々は、高度な推論スキルを非推論モデルに転送することに成功しました。
論文 参考訳(メタデータ) (2025-11-13T23:20:57Z) - Reasoning with Confidence: Efficient Verification of LLM Reasoning Steps via Uncertainty Heads [104.9566359759396]
データ駆動の不確実性スコアに基づくステップレベルの推論検証の軽量な代替案を提案する。
本研究は, LLMの内部状態が不確実性を符号化し, 信頼性の高い検証信号として機能することが示唆された。
論文 参考訳(メタデータ) (2025-11-09T03:38:29Z) - AnaFlow: Agentic LLM-based Workflow for Reasoning-Driven Explainable and Sample-Efficient Analog Circuit Sizing [1.2617078020344616]
サンプル効率と説明可能なアナログ回路サイズのための新しいエージェントAIフレームワークを提案する。
AnaFlowフレームワークは、複雑さの異なる2つの回路で実証されており、サイズタスクを完全に完了することができる。
固有の説明可能性により、アナログ設計空間探索の強力なツールとなり、アナログEDAの新しいパラダイムとなる。
論文 参考訳(メタデータ) (2025-11-05T18:24:01Z) - MM-HELIX: Boosting Multimodal Long-Chain Reflective Reasoning with Holistic Platform and Adaptive Hybrid Policy Optimization [103.74675519953898]
ロングチェーンのリフレクティブ推論は、複雑な現実世界の問題を解決するための前提条件である。
我々は42の難解な合成タスクの1,260のサンプルからなるベンチマークを構築した。
トレーニング後のデータを生成し、そのようなデータを活用するための学習パラダイムを探索する。
論文 参考訳(メタデータ) (2025-10-09T17:53:58Z) - Can Reasoning Models Reason about Hardware? An Agentic HLS Perspective [18.791753740931185]
OpenAI o3-mini と DeepSeek-R1 は Chain-of-Thought (CoT) を通じて推論を強化している
本稿では, LLM の推論が高レベル合成(HLS)設計空間探索と最適化の課題に対処できるかどうかを検討する。
論文 参考訳(メタデータ) (2025-03-17T01:21:39Z) - VeriMind: Agentic LLM for Automated Verilog Generation with a Novel Evaluation Metric [4.590930025882158]
We propose VeriMind, a agentic LLM framework for Verilog code generation。
本稿では,従来のpass@k測度とARC(Average Refinement Cycles)を組み合わせた新しい評価手法を提案する。
様々なハードウェア設計タスクの実験結果によると、我々のアプローチはpass@kメトリックで最大8.3%、pass@ARCメトリックで最大8.1%向上した。
論文 参考訳(メタデータ) (2025-03-15T23:43:06Z) - Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark [166.40879020706151]
本稿では、微調整時のメモリコスト低減のためのソリューションとして、BPフリーゼロオーダー最適化(ZO)への移行を提案する。
従来のZO-SGD法とは異なり、我々の研究はより広い範囲のZO最適化手法に探索を広げる。
本研究は,タスクアライメントの重要性,前方勾配法の役割,アルゴリズムの複雑さと微調整性能のバランスについて,これまで見過ごされてきた最適化原理を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T14:08:48Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。