論文の概要: Exploiting Function-Family Structure in Analog Circuit Optimization
- arxiv url: http://arxiv.org/abs/2512.00712v1
- Date: Sun, 30 Nov 2025 03:21:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.375371
- Title: Exploiting Function-Family Structure in Analog Circuit Optimization
- Title(参考訳): アナログ回路最適化における爆発機能-家族構造
- Authors: Zhuohua Liu, Kaiqi Huang, Qinxin Mei, Yuanqi Hu, Wei W. Xing,
- Abstract要約: オフザシェルフのガウス過程のサロゲートは、これらのシステミックスイッチングプリミティブと不一致の、全世界的にスムーズで定常的な優先順位を課す。
これらのプリミティブを符号化した事前学習モデルでは、回路単位のエンジニアリングを使わずに信頼性の高い最適化が可能であることを実証する。
- 参考スコア(独自算出の注目度): 22.334314861424943
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Analog circuit optimization is typically framed as black-box search over arbitrary smooth functions, yet device physics constrains performance mappings to structured families: exponential device laws, rational transfer functions, and regime-dependent dynamics. Off-the-shelf Gaussian-process surrogates impose globally smooth, stationary priors that are misaligned with these regime-switching primitives and can severely misfit highly nonlinear circuits at realistic sample sizes (50--100 evaluations). We demonstrate that pre-trained tabular models encoding these primitives enable reliable optimization without per-circuit engineering. Circuit Prior Network (CPN) combines a tabular foundation model (TabPFN v2) with Direct Expected Improvement (DEI), computing expected improvement exactly under discrete posteriors rather than Gaussian approximations. Across 6 circuits and 25 baselines, structure-matched priors achieve $R^2 \approx 0.99$ in small-sample regimes where GP-Matérn attains only $R^2 = 0.16$ on Bandgap, deliver $1.05$--$3.81\times$ higher FoM with $3.34$--$11.89\times$ fewer iterations, and suggest a shift from hand-crafting models as priors toward systematic physics-informed structure identification. Our code will be made publicly available upon paper acceptance.
- Abstract(参考訳): アナログ回路の最適化は、典型的には任意の滑らかな関数をブラックボックスで探索するが、デバイス物理は、指数関数的デバイス法則、合理的転送関数、状態依存力学といった、構造化されたファミリーのパフォーマンスマッピングを制限している。
オフザシェルフガウスプロセスサロゲートは、これらのレギュラースイッチングプリミティブと不一致で、現実的なサンプルサイズ(50-100評価)で非常に不適合な高非線形回路を世界規模でスムーズで定常的に優先する。
これらのプリミティブを符号化した事前学習表モデルでは,回路単位の工学的手法を使わずに,信頼性の高い最適化が可能であることを実証する。
Circuit Prior Network (CPN) は表形式の基盤モデル (TabPFN v2) と直接期待改善 (DEI) を組み合わせることで、ガウス近似よりも正確に離散的な後部での予測された改善を計算している。
GP-Matérnはバンドギャップ上でR^2 = 0.16$しか得られず、1.05$--$3.81\times$3.34$--11.89\times$より高額なFoMを提供する。
私たちのコードは、論文の受理時に公開されます。
関連論文リスト
- Physics-Informed Graph Neural Networks for Transverse Momentum Estimation in CMS Trigger Systems [0.0]
高エネルギー物理におけるリアルタイム粒子横運動量(p_T$)推定は、厳密なハードウェア制約の下で効率的なアルゴリズムを要求する。
本稿では,物理インフォームドグラフニューラルネットワーク(GNN)フレームワークを提案する。
我々の共同設計手法は、既存のベースラインに比べて精度と効率のトレードオフが優れている。
論文 参考訳(メタデータ) (2025-07-25T12:19:57Z) - Efficient dataset construction using active learning and uncertainty-aware neural networks for plasma turbulent transport surrogate models [0.0]
本研究は,不確実性を考慮したアーキテクチャを用いてモデル生成のための効率的なデータセットを構築するための実証実験である。
この戦略はトカマク核融合プラズマ中のプラズマ乱流輸送問題、特にQuaLiKiz準静電ジャイロキネティック乱流輸送符号に再び適用された。
45回のアクティブな学習イテレーションで、102ドルの小さな初期トレーニングセットから104ドルの最終セットに移行し、結果のモデルは0.8のF_1ドルの分類パフォーマンス、独立したテストセットで0.75ドルの回帰パフォーマンスに達した。
論文 参考訳(メタデータ) (2025-07-21T18:15:12Z) - Electrostatics from Laplacian Eigenbasis for Neural Network Interatomic Potentials [9.268742966352383]
メッセージパッシングフレームワーク内でPoissonの方程式を強制するユニバーサルプラグインモジュールであるPhi-Moduleを紹介する。
具体的には、各原子ワイド表現は、離散化されたポアソン方程式を満たすように奨励される。
次に、全エネルギー予測の改善に不可欠な静電エネルギー項を導出する。
論文 参考訳(メタデータ) (2025-05-20T16:54:25Z) - FedSVD: Adaptive Orthogonalization for Private Federated Learning with LoRA [68.44043212834204]
Low-Rank Adaptation (LoRA) は、学習における言語モデルの効率的な微調整に広く用いられている。
Low-Rank Adaptation (LoRA) は、学習における言語モデルの効率的な微調整に広く用いられている。
論文 参考訳(メタデータ) (2025-05-19T07:32:56Z) - Correcting the Mythos of KL-Regularization: Direct Alignment without Overoptimization via Chi-Squared Preference Optimization [78.82586283794886]
$chi2$-Preference Optimization(chi$PO)は、オーバー最適化に対して確実に堅牢なオフラインアライメントアルゴリズムである。
$chi$POは、正規化による不確実性に直面して悲観主義の原理を実装している。
$chi$POの単純さと強力な保証により、オーバー最適化に対して確実に堅牢な、実用的で汎用的なオフラインアライメントアルゴリズムとなった。
論文 参考訳(メタデータ) (2024-07-18T11:08:40Z) - Improved Communication-Privacy Trade-offs in $L_2$ Mean Estimation under Streaming Differential Privacy [47.997934291881414]
既存の平均推定スキームは、通常、$L_infty$幾何に最適化され、ランダムな回転や、$L$幾何に適応するカシンの表現に依存する。
本稿では,スパシフィケーションに固有のランダム性をDPに組み込んだ,スパシフィケーションガウシアン機構の新たなプライバシ会計手法を提案する。
従来の手法とは異なり、我々の会計アルゴリズムは直接$L$幾何で動作し、ガウスの機構に迅速に収束するMSEが得られる。
論文 参考訳(メタデータ) (2024-05-02T03:48:47Z) - Offline Primal-Dual Reinforcement Learning for Linear MDPs [16.782625445546273]
オフライン強化学習(RL)は、他のポリシによって収集されたトランジションの固定データセットから、ほぼ最適なポリシを学ぶことを目的としている。
本稿では,RLの線形プログラミング定式化に基づく原始双対最適化手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T11:45:23Z) - Bounding the Width of Neural Networks via Coupled Initialization -- A
Worst Case Analysis [121.9821494461427]
2層ReLUネットワークに必要なニューロン数を著しく削減する方法を示す。
また、事前の作業を改善するための新しい下位境界を証明し、ある仮定の下では、最善を尽くすことができることを証明します。
論文 参考訳(メタデータ) (2022-06-26T06:51:31Z) - Matching Pursuit Based Scheduling for Over-the-Air Federated Learning [67.59503935237676]
本稿では,フェデレートラーニング手法を用いて,オーバー・ザ・エアラーニングのための低複雑さデバイススケジューリングアルゴリズムのクラスを開発する。
最先端の提案方式と比較すると,提案方式は極めて低効率なシステムである。
提案手法の有効性は,CIFARデータセットを用いた実験により確認した。
論文 参考訳(メタデータ) (2022-06-14T08:14:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。