論文の概要: ParaGate: Parasitic-Driven Domain Adaptation Transfer Learning for Netlist Performance Prediction
- arxiv url: http://arxiv.org/abs/2511.23340v1
- Date: Fri, 28 Nov 2025 16:49:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.986182
- Title: ParaGate: Parasitic-Driven Domain Adaptation Transfer Learning for Netlist Performance Prediction
- Title(参考訳): ParaGate: ネットリストのパフォーマンス予測のための寄生駆動ドメイン適応変換学習
- Authors: Bin Sun, Jingyi Zhou, Jianan Mu, Zhiteng Chao, Tianmeng Yang, Ziyue Xu, Jing Ye, Huawei Li,
- Abstract要約: 従来のEDAフローでは、レイアウトレベルのパフォーマンスメトリクスは配置とルーティング後にのみ取得できる。
レイアウトレベルのタイミングとパワーをネットリストから推測する3段階のクロスステージ予測フレームワークであるParaGateを提案する。
実験により、ParaGateは最小限の微調整データで強力な一般化を実現することが示された。
- 参考スコア(独自算出の注目度): 9.750084122633703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In traditional EDA flows, layout-level performance metrics are only obtainable after placement and routing, hindering global optimization at earlier stages. Although some neural-network-based solutions predict layout-level performance directly from netlists, they often face generalization challenges due to the black-box heuristics of commercial placement-and-routing tools, which create disparate data across designs. To this end, we propose ParaGate, a three-step cross-stage prediction framework that infers layout-level timing and power from netlists. First, we propose a two-phase transfer-learning approach to predict parasitic parameters, pre-training on mid-scale circuits and fine-tuning on larger ones to capture extreme conditions. Next, we rely on EDA tools for timing analysis, offloading the long-path numerical reasoning. Finally, ParaGate performs global calibration using subgraph features. Experiments show that ParaGate achieves strong generalization with minimal fine-tuning data: on openE906, its arrival-time R2 from 0.119 to 0.897. These results demonstrate that ParaGate could provide guidance for global optimization in the synthesis and placement stages.
- Abstract(参考訳): 従来のEDAフローでは、レイアウトレベルのパフォーマンス指標は配置とルーティング後にのみ取得可能であり、早い段階でのグローバルな最適化を妨げる。
ニューラルネットワークベースのソリューションの中には、ネットリストから直接レイアウトレベルのパフォーマンスを予測するものもありますが、設計間で異なるデータを生成する商用配置・レイアウトツールのブラックボックスヒューリスティックが原因で、一般化の課題に直面します。
そこで我々は,レイアウトレベルのタイミングとパワーをネットリストから推測する3段階のクロスステージ予測フレームワークであるParaGateを提案する。
まず,2相移動学習による寄生パラメータの予測,中規模回路での事前学習,および極端条件を捉えるための大規模回路の微調整を提案する。
次に、長いパスの数値推論をオフロードするタイミング解析にEDAツールを使用します。
最後に、ParaGateはサブグラフ機能を使用してグローバルキャリブレーションを行う。
実験の結果、ParaGateは最小の微調整データ(openE906では0.119から0.897までの到着時刻R2)で強力な一般化を実現することが示された。
これらの結果は、ParaGateが合成および配置段階におけるグローバル最適化のためのガイダンスを提供することを示した。
関連論文リスト
- Enhancing Training Data Attribution with Representational Optimization [57.61977909113113]
トレーニングデータ属性法は、トレーニングデータがモデルの予測にどのように影響するかを測定することを目的としている。
本稿では,タスク固有表現とモデル整合表現をTDAで明示的に学習することで,このギャップを埋める表現ベースアプローチであるAirRepを提案する。
AirRepは、属性品質に合わせて調整されたトレーニング可能なエンコーダと、グループワイドの影響を正確に見積もるアテンションベースのプール機構の2つの重要なイノベーションを紹介している。
論文 参考訳(メタデータ) (2025-05-24T05:17:53Z) - Can Pre-training Indicators Reliably Predict Fine-tuning Outcomes of LLMs? [42.608899417822656]
本研究では,501BパラメータLLM変種を用いて,系統的な事前学習構成を持つデータセットを構築した。
本稿では,事前学習から得られた新しい教師なしおよび教師なしのプロキシメトリクスを導入し,相対的な性能予測誤差率を50%以上削減する。
論文 参考訳(メタデータ) (2025-04-16T21:19:09Z) - OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - ADAPT: Efficient Multi-Agent Trajectory Prediction with Adaptation [0.0]
ADAPTはダイナミックウェイトラーニングによってシーン内の全てのエージェントの軌道を共同で予測するための新しいアプローチである。
提案手法は, 単一エージェントと複数エージェントの設定において, 最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-26T13:41:51Z) - A Machine Learning Approach to Improving Timing Consistency between
Global Route and Detailed Route [3.202646674984817]
不正確なタイミング予測は設計の労力を浪費し、回路性能を損なう。
この研究は、時間と「完全」ネットリストを最適化する最も初期の機会であるクロックツリー合成と配置の合法化の後のタイミング予測に焦点を当てている。
GR-based parasiticと時間推定のギャップを埋めるために,ポストGR最適化におけるポストDR結果のギャップを埋めるため,機械学習(ML)ベースのモデルを提案する。
論文 参考訳(メタデータ) (2023-05-11T16:01:23Z) - Sample-Efficient Optimisation with Probabilistic Transformer Surrogates [66.98962321504085]
本稿では,ベイズ最適化における最先端確率変換器の適用可能性について検討する。
トレーニング手順と損失定義から生じる2つの欠点を観察し、ブラックボックス最適化のプロキシとして直接デプロイすることを妨げる。
1)非一様分散点を前処理するBO調整トレーニング,2)予測性能を向上させるために最適な定常点をフィルタする新しい近似後正則整定器トレードオフ精度と入力感度を導入する。
論文 参考訳(メタデータ) (2022-05-27T11:13:17Z) - JUMBO: Scalable Multi-task Bayesian Optimization using Offline Data [86.8949732640035]
追加データをクエリすることで制限をサイドステップするMBOアルゴリズムであるJUMBOを提案する。
GP-UCBに類似した条件下では, 応答が得られないことを示す。
実世界の2つの最適化問題に対する既存手法に対する性能改善を実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T05:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。