論文の概要: ZeroSim: Zero-Shot Analog Circuit Evaluation with Unified Transformer Embeddings
- arxiv url: http://arxiv.org/abs/2511.07658v1
- Date: Wed, 12 Nov 2025 01:09:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.414496
- Title: ZeroSim: Zero-Shot Analog Circuit Evaluation with Unified Transformer Embeddings
- Title(参考訳): ZeroSim:Unified Transformer Embeddingsを用いたゼロショットアナログ回路の評価
- Authors: Xiaomeng Yang, Jian Gao, Yanzhi Wang, Xuan Zhang,
- Abstract要約: ZeroSimは、トレーニングトポロジ間で堅牢な分散内一般化を実現するために設計された、トランスフォーマーベースのパフォーマンスモデリングフレームワークである。
我々はZeroSimが,多層パーセプトロン,グラフニューラルネットワーク,トランスフォーマーなどのベースラインモデルよりも大幅に優れていることを示す。
強化学習に基づくパラメータ最適化パイプラインに統合されると、ZeroSimは従来のSPICEシミュレーションと比較して、顕著なスピードアップ(13倍)を達成する。
- 参考スコア(独自算出の注目度): 36.00558662624576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although recent advancements in learning-based analog circuit design automation have tackled tasks such as topology generation, device sizing, and layout synthesis, efficient performance evaluation remains a major bottleneck. Traditional SPICE simulations are time-consuming, while existing machine learning methods often require topology-specific retraining or manual substructure segmentation for fine-tuning, hindering scalability and adaptability. In this work, we propose ZeroSim, a transformer-based performance modeling framework designed to achieve robust in-distribution generalization across trained topologies under novel parameter configurations and zero-shot generalization to unseen topologies without any fine-tuning. We apply three key enabling strategies: (1) a diverse training corpus of 3.6 million instances covering over 60 amplifier topologies, (2) unified topology embeddings leveraging global-aware tokens and hierarchical attention to robustly generalize to novel circuits, and (3) a topology-conditioned parameter mapping approach that maintains consistent structural representations independent of parameter variations. Our experimental results demonstrate that ZeroSim significantly outperforms baseline models such as multilayer perceptrons, graph neural networks and transformers, delivering accurate zero-shot predictions across different amplifier topologies. Additionally, when integrated into a reinforcement learning-based parameter optimization pipeline, ZeroSim achieves a remarkable speedup (13x) compared to conventional SPICE simulations, underscoring its practical value for a wide range of analog circuit design automation tasks.
- Abstract(参考訳): 近年の学習に基づくアナログ回路設計の自動化は、トポロジ生成、デバイスサイズ、レイアウト合成といったタスクに取り組んできたが、効率的な性能評価は依然として大きなボトルネックとなっている。
従来のSPICEシミュレーションは時間を要するが、既存の機械学習手法では、微調整やスケーラビリティや適応性を阻害するために、トポロジ固有のトレーニングや手動のサブ構造セグメンテーションを必要とすることが多い。
本研究では、新しいパラメータ構成下でのトレーニングトポロジ間のロバストな分布分布一般化と、微調整なしで見つからないトポロジへのゼロショット一般化を実現するために設計された、トランスフォーマーベースのパフォーマンスモデリングフレームワークであるZeroSimを提案する。
我々は,(1)60以上のアンプトポロジをカバーする360万件の多様なトレーニングコーパス,(2)グローバルなトークンを活用した統合トポロジ埋め込み,(2)新しい回路への堅牢な一般化のための階層的注意,(3)パラメータ変動に依存しない一貫した構造表現を維持するトポロジ条件付きパラメータマッピングアプローチ,の3つの主要な実現戦略を適用した。
実験の結果,ZeroSimは多層パーセプトロン,グラフニューラルネットワーク,トランスフォーマーなどのベースラインモデルよりも優れており,異なるアンプトポロジで正確なゼロショット予測が可能であることがわかった。
さらに、強化学習に基づくパラメータ最適化パイプラインに統合されると、ZeroSimは従来のSPICEシミュレーションと比較して驚くべきスピードアップ(13倍)を達成する。
関連論文リスト
- FALCON: An ML Framework for Fully Automated Layout-Constrained Analog Circuit Design [15.502124836790438]
本稿では、仕様駆動アナログ回路合成を可能にする統合機械学習フレームワークであるFALCONを紹介する。
FALCONはまず、人間設計でガイドされた性能駆動型分類器を用いて、適切な回路トポロジーを選択する。
次に、独自のエッジ中心グラフニューラルネットワークを使用して、回路トポロジとパラメータをパフォーマンスにマップする。
この推論は、分析方程式の寄生的および周波数依存的な効果から導かれる、異なるレイアウトコストで導かれ、設計規則によって制約される。
論文 参考訳(メタデータ) (2025-05-28T03:16:08Z) - Supervised Learning for Analog and RF Circuit Design: Benchmarks and Comparative Insights [10.354863964933019]
本研究では,様々な回路タイプにわたる性能仕様から回路パラメータを設計するための教師付きMLに基づくアプローチについて検討する。
その結果,低雑音増幅器などの単純な回路は,平均相対誤差を0.3%以下と極めて精度が高いことがわかった。
異種回路では、トレーニングデータの増加により誤差の88%が減少し、受信側は平均相対誤差を0.23%以下とした。
論文 参考訳(メタデータ) (2025-01-21T02:48:23Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Machine Learning Driven Global Optimisation Framework for Analog Circuit Design [0.0]
アナログ回路設計のための機械学習駆動最適化フレームワークを提案する。
最適化アルゴリズムを指向するために,機械学習モデルとスパイスシミュレーションを用いる。
論文 参考訳(メタデータ) (2024-02-27T03:51:00Z) - Transformers as Statisticians: Provable In-Context Learning with
In-Context Algorithm Selection [88.23337313766353]
この研究はまず、変換器がICLを実行するための包括的な統計理論を提供する。
コンテクストにおいて、トランスフォーマーは、幅広い種類の標準機械学習アルゴリズムを実装可能であることを示す。
エンフィングル変換器は、異なるベースICLアルゴリズムを適応的に選択することができる。
論文 参考訳(メタデータ) (2023-06-07T17:59:31Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - Global Vision Transformer Pruning with Hessian-Aware Saliency [93.33895899995224]
この研究はヴィジュアルトランスフォーマー(ViT)モデルの共通設計哲学に挑戦する。
遅延を意識した規則化による直接遅延低減を実現し,すべての層や構造に匹敵する新しいヘッセン型構造解析基準を導出する。
DeiT-Baseモデルで反復的なプルーニングを実行すると、NViT(Novel ViT)と呼ばれる新しいアーキテクチャファミリが生まれ、パラメータをより効率的に利用する新しいパラメータが現れる。
論文 参考訳(メタデータ) (2021-10-10T18:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。