論文の概要: AnalogSAGE: Self-evolving Analog Design Multi-Agents with Stratified Memory and Grounded Experience
- arxiv url: http://arxiv.org/abs/2512.22435v1
- Date: Sat, 27 Dec 2025 02:06:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.051584
- Title: AnalogSAGE: Self-evolving Analog Design Multi-Agents with Stratified Memory and Grounded Experience
- Title(参考訳): AnalogSAGE: ストレートメモリとグラウンドドエクスペリエンスを備えた自己進化型アナログ設計マルチエージェント
- Authors: Zining Wang, Jian Gao, Weimin Fu, Xiaolong Guo, Xuan Zhang,
- Abstract要約: 我々は,4つの階層化メモリ層を通して3段階のエージェント探索をコーディネートするオープンソースのマルチエージェントフレームワークであるAnalogSAGEを提案する。
本ベンチマークでは,10の仕様駆動型動作増幅器設計問題に対して,定量的およびクロスタスク比較が可能となる。
AnalogSAGEは10$times$総合パスレート、48$times$ Pass@1、および4$times$パラメータ検索スペースを既存のフレームワークと比較して削減する。
- 参考スコア(独自算出の注目度): 13.371317989669782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analog circuit design remains a knowledge- and experience-intensive process that relies heavily on human intuition for topology generation and device parameter tuning. Existing LLM-based approaches typically depend on prompt-driven netlist generation or predefined topology templates, limiting their ability to satisfy complex specification requirements. We propose AnalogSAGE, an open-source self-evolving multi-agent framework that coordinates three-stage agent explorations through four stratified memory layers, enabling iterative refinement with simulation-grounded feedback. To support reproducibility and generality, we release the source code. Our benchmark spans ten specification-driven operational amplifier design problems of varying difficulty, enabling quantitative and cross-task comparison under identical conditions. Evaluated under the open-source SKY130 PDK with ngspice, AnalogSAGE achieves a 10$\times$ overall pass rate, a 48$\times$ Pass@1, and a 4$\times$ reduction in parameter search space compared with existing frameworks, demonstrating that stratified memory and grounded reasoning substantially enhance the reliability and autonomy of analog design automation in practice.
- Abstract(参考訳): アナログ回路設計は、トポロジ生成とデバイスパラメータチューニングのための人間の直観に大きく依存する知識と経験に富んだプロセスのままである。
既存のLCMベースのアプローチは、通常、プロンプト駆動のネットリスト生成や定義されたトポロジーテンプレートに依存し、複雑な仕様要件を満たす能力を制限する。
我々は,4つの階層化メモリ層を通して3段階のエージェント探索をコーディネートするオープンソースの自己進化型マルチエージェントフレームワークであるAnalogSAGEを提案する。
再現性と汎用性をサポートするため、ソースコードをリリースする。
本ベンチマークは, 仕様駆動型動作増幅器設計問題10種にまたがって, 同一条件下での定量的およびクロスタスク比較を可能にする。
オープンソースのSKY130 PDKとngspiceで評価され、AnalogSAGEは10$\times$総合パスレート、48$\times$ Pass@1、および4$\times$パラメータ検索スペースを既存のフレームワークと比較して削減し、階層化されたメモリと基底推論が実際にアナログ設計自動化の信頼性と自律性を著しく向上することを示した。
関連論文リスト
- Reasoning Palette: Modulating Reasoning via Latent Contextualization for Controllable Exploration for (V)LMs [49.66344956133349]
推論能力は、大規模な(ビジョン)言語モデルのための推論時間性能と強化学習(RL)トレーニングの両方を形作る。
本稿では,戦略的文脈化のための潜在変数をモデルに付与する新しい潜在変調フレームワークであるReasoning Paletteを提案する。
論文 参考訳(メタデータ) (2025-12-19T03:32:53Z) - Dense Associative Memories with Analog Circuits [4.0086293309536405]
DenseAMのためのアナログアクセラレータ構築法を提案する。
アナログDenseAMハードウェアはモデルサイズに依存しない一定時間で推論を行う。
我々は、増幅器仕様によって課される達成可能な時間定数の低い境界を推定し、保守的な既存のアナログ技術でさえ、数十ナノ秒から数百ナノ秒の順序で推論時間を実現できることを示唆した。
論文 参考訳(メタデータ) (2025-12-17T01:22:44Z) - ZeroSim: Zero-Shot Analog Circuit Evaluation with Unified Transformer Embeddings [36.00558662624576]
ZeroSimは、トレーニングトポロジ間で堅牢な分散内一般化を実現するために設計された、トランスフォーマーベースのパフォーマンスモデリングフレームワークである。
我々はZeroSimが,多層パーセプトロン,グラフニューラルネットワーク,トランスフォーマーなどのベースラインモデルよりも大幅に優れていることを示す。
強化学習に基づくパラメータ最適化パイプラインに統合されると、ZeroSimは従来のSPICEシミュレーションと比較して、顕著なスピードアップ(13倍)を達成する。
論文 参考訳(メタデータ) (2025-11-10T22:08:30Z) - AnaFlow: Agentic LLM-based Workflow for Reasoning-Driven Explainable and Sample-Efficient Analog Circuit Sizing [1.2617078020344616]
サンプル効率と説明可能なアナログ回路サイズのための新しいエージェントAIフレームワークを提案する。
AnaFlowフレームワークは、複雑さの異なる2つの回路で実証されており、サイズタスクを完全に完了することができる。
固有の説明可能性により、アナログ設計空間探索の強力なツールとなり、アナログEDAの新しいパラダイムとなる。
論文 参考訳(メタデータ) (2025-11-05T18:24:01Z) - STARec: An Efficient Agent Framework for Recommender Systems via Autonomous Deliberate Reasoning [54.28691219536054]
我々は、自律的な熟考的推論機能を備えたレコメンデータシステムを支援する、ゆっくり考えられた拡張エージェントフレームワークSTARecを紹介する。
我々は,先進的推論モデルと嗜好整合型報酬形成から構造化知識の蒸留を組み合わせた2段階のパラダイムであるアンカー強化訓練を開発する。
MovieLens 1MとAmazon CDsベンチマークの実験では、STARecは最先端のベースラインと比較して、大幅なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-08-26T08:47:58Z) - CROP: Circuit Retrieval and Optimization with Parameter Guidance using LLMs [5.611060564629618]
本稿では,最初の大規模言語モデル(LLM)を用いた自動VLSI設計フローチューニングフレームワークであるCROPを提案する。
提案手法は,(1)RTLソースコードを高密度ベクトル表現に変換するスケーラブルな手法,(2)意味的に類似した回路と設計をマッチングする埋め込み型検索システム,(3)検索強化型LLM誘導パラメータ探索システムを含む。
実験の結果、CROPのQoR(Quality-of-Results)の能力は、工業設計における既存のアプローチよりも少ないイテレーションで達成され、消費電力は9.9%削減された。
論文 参考訳(メタデータ) (2025-07-02T20:25:47Z) - SPARE: Single-Pass Annotation with Reference-Guided Evaluation for Automatic Process Supervision and Reward Modelling [58.05959902776133]
私たちはSingle-Passを紹介します。
Reference-Guided Evaluation (SPARE)は、効率的なステップごとのアノテーションを可能にする新しい構造化フレームワークである。
数学的推論(GSM8K, MATH)、マルチホップ質問応答(MuSiQue-Ans)、空間推論(SpaRP)にまたがる4つの多様なデータセットにおけるSPAREの有効性を実証する。
ProcessBenchでは、SPAREがデータ効率のよいアウト・オブ・ディストリビューションの一般化を実証し、トレーニングサンプルの$sim$16%しか使用していない。
論文 参考訳(メタデータ) (2025-06-18T14:37:59Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。