論文の概要: Breaking the Tuning Barrier: Zero-Hyperparameters Yield Multi-Corner Analysis Via Learned Priors
- arxiv url: http://arxiv.org/abs/2603.13092v1
- Date: Fri, 13 Mar 2026 15:40:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:12.165571
- Title: Breaking the Tuning Barrier: Zero-Hyperparameters Yield Multi-Corner Analysis Via Learned Priors
- Title(参考訳): チューニングバリアを突破する:事前学習したゼロハイパーパラメータ収率マルチコア分析
- Authors: Wei W. Xing, Kaiqi Huang, Jiazhan Liu, Hong Qiu, Shan Shen,
- Abstract要約: 既存の手法は基本的なトレードオフに直面しており、単純なモデルは自動化されるが非線形回路では失敗する。
私たちは、数百万の回帰タスクで事前トレーニングされた基礎モデルから、エンジニアリングされた事前を学習された事前に置き換えることで、この障壁を突破します。
提案手法は,最先端の精度(平均MREが0.11%以下)とゼロチューニングとを一致させ,総検証コストを10倍以上削減する。
- 参考スコア(独自算出の注目度): 22.16752289030178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Yield Multi-Corner Analysis validates circuits across 25+ Process-Voltage-Temperature corners, resulting in a combinatorial simulation cost of $O(K \times N)$ where $K$ denotes corners and $N$ exceeds $10^4$ samples per corner. Existing methods face a fundamental trade-off: simple models achieve automation but fail on nonlinear circuits, while advanced AI models capture complex behaviors but require hours of hyperparameter tuning per design iteration, forming the Tuning Barrier. We break this barrier by replacing engineered priors (i.e., model specifications) with learned priors from a foundation model pre-trained on millions of regression tasks. This model performs in-context learning, instantly adapting to each circuit without tuning or retraining. Its attention mechanism automatically transfers knowledge across corners by identifying shared circuit physics between operating conditions. Combined with an automated feature selector (1152D to 48D), our method matches state-of-the-art accuracy (mean MREs as low as 0.11\%) with zero tuning, reducing total validation cost by over $10\times$.
- Abstract(参考訳): Yield Multi-Corner Analysisは25以上のプロセス-電圧-温度角の回路を検証し、組合せシミュレーションコストは$O(K \times N)$で、K$はコーナーを表し、N$はコーナー毎のサンプル10^4$を超える。
単純なモデルは自動化を実現するが、非線形回路では失敗する一方、高度なAIモデルは複雑な振る舞いをキャプチャするが、設計イテレーション毎に数時間のハイパーパラメータチューニングを必要とし、チューニングバリアを形成する。
私たちはこの障壁を、数百万の回帰タスクで事前訓練された基礎モデルから学習した事前(すなわちモデル仕様)に置き換えることで解決します。
このモデルはコンテキスト内学習を行い、チューニングや再トレーニングなしに各回路に即座に適応する。
その注意機構は、動作条件間で共有回路物理を識別することで、コーナー間で知識を自動的に伝達する。
自動機能セレクタ(1152D〜48D)と組み合わせて,最先端の精度(平均値0.11\%)をゼロチューニングと一致させ,総検証コストを10\times$に削減した。
関連論文リスト
- Exploiting Function-Family Structure in Analog Circuit Optimization [22.334314861424943]
オフザシェルフのガウス過程のサロゲートは、これらのシステミックスイッチングプリミティブと不一致の、全世界的にスムーズで定常的な優先順位を課す。
これらのプリミティブを符号化した事前学習モデルでは、回路単位のエンジニアリングを使わずに信頼性の高い最適化が可能であることを実証する。
論文 参考訳(メタデータ) (2025-11-30T03:21:13Z) - Efficient dataset construction using active learning and uncertainty-aware neural networks for plasma turbulent transport surrogate models [0.0]
本研究は,不確実性を考慮したアーキテクチャを用いてモデル生成のための効率的なデータセットを構築するための実証実験である。
この戦略はトカマク核融合プラズマ中のプラズマ乱流輸送問題、特にQuaLiKiz準静電ジャイロキネティック乱流輸送符号に再び適用された。
45回のアクティブな学習イテレーションで、102ドルの小さな初期トレーニングセットから104ドルの最終セットに移行し、結果のモデルは0.8のF_1ドルの分類パフォーマンス、独立したテストセットで0.75ドルの回帰パフォーマンスに達した。
論文 参考訳(メタデータ) (2025-07-21T18:15:12Z) - TE-PAI: Exact Time Evolution by Sampling Random Circuits [0.0]
量子ハミルトニアンの下での時間進化のシミュレーションは、量子コンピュータの最も自然な応用の1つである。
TE-PAIは、ランダムな量子回路をサンプリングすることによって、時間進化を正確にシミュレートする。
浅い回路深度を達成しつつ、離散化やアルゴリズム誤差を伴わずに時間進化をシミュレートすることを証明する。
論文 参考訳(メタデータ) (2024-10-22T09:36:11Z) - Simple ReFlow: Improved Techniques for Fast Flow Models [68.32300636049008]
拡散および流れマッチングモデルは、優れた生成性能を実現するが、多くのサンプリングステップを犠牲にしている。
我々は、力学、学習、推論のトレーニングに7つの改善点を提案する。
我々は、ニューラルネットワークによる高速な生成のために、最先端のFIDスコア(ガイダンスなし/参照なし)を達成している。
論文 参考訳(メタデータ) (2024-10-10T11:00:55Z) - Finding Transformer Circuits with Edge Pruning [71.12127707678961]
自動回路発見の効率的かつスケーラブルなソリューションとしてエッジプルーニングを提案する。
本手法は,従来の手法に比べてエッジ数の半分未満のGPT-2の回路を探索する。
その効率のおかげで、Edge PruningをCodeLlama-13Bにスケールしました。
論文 参考訳(メタデータ) (2024-06-24T16:40:54Z) - An Empirical Study of $μ$P Learning Rate Transfer [0.0]
実際に,$mu$-Transfer法によってほぼ最適な学習率が得られることを示す。
明らかな約束にもかかわらず、$mu$P メソッドはまだ広く採用されていない。
論文 参考訳(メタデータ) (2024-04-08T17:59:44Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - Exploring Sparse Expert Models and Beyond [51.90860155810848]
Mixture-of-Experts (MoE) モデルは、無数のパラメータを持つが、一定の計算コストで有望な結果が得られる。
本稿では,専門家を異なるプロトタイプに分割し,上位1ドルのルーティングに$k$を適用する,エキスパートプロトタイピングというシンプルな手法を提案する。
この戦略は, モデル品質を向上させるが, 一定の計算コストを維持するとともに, 大規模モデルのさらなる探索により, 大規模モデルの訓練に有効であることが示唆された。
論文 参考訳(メタデータ) (2021-05-31T16:12:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。