論文の概要: Transferable Parasitic Estimation via Graph Contrastive Learning and Label Rebalancing in AMS Circuits
- arxiv url: http://arxiv.org/abs/2507.06535v1
- Date: Wed, 09 Jul 2025 04:31:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.467496
- Title: Transferable Parasitic Estimation via Graph Contrastive Learning and Label Rebalancing in AMS Circuits
- Title(参考訳): AMS回路におけるグラフコントラスト学習とラベルリバランシングによる楽観的パラサイト推定
- Authors: Shan Shen, Shenglu Hua, Jiajun Zou, Jiawei Liu, Jianwang Zhai, Chuan Shi, Wenjian Yu,
- Abstract要約: 本稿では,表現分散とラベルリバランシングを統合し,回路グラフ間の転送性を向上させるグラフコントラスト学習フレームワークを提案する。
CircuitGCLは全ての最先端(SOTA)メソッドより優れており、R2$は33.64% sim 44.20%$、F1スコアは92タイム sim 2.1times$である。
- 参考スコア(独自算出の注目度): 30.438901630093426
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph representation learning on Analog-Mixed Signal (AMS) circuits is crucial for various downstream tasks, e.g., parasitic estimation. However, the scarcity of design data, the unbalanced distribution of labels, and the inherent diversity of circuit implementations pose significant challenges to learning robust and transferable circuit representations. To address these limitations, we propose CircuitGCL, a novel graph contrastive learning framework that integrates representation scattering and label rebalancing to enhance transferability across heterogeneous circuit graphs. CircuitGCL employs a self-supervised strategy to learn topology-invariant node embeddings through hyperspherical representation scattering, eliminating dependency on large-scale data. Simultaneously, balanced mean squared error (MSE) and softmax cross-entropy (bsmCE) losses are introduced to mitigate label distribution disparities between circuits, enabling robust and transferable parasitic estimation. Evaluated on parasitic capacitance estimation (edge-level task) and ground capacitance classification (node-level task) across TSMC 28nm AMS designs, CircuitGCL outperforms all state-of-the-art (SOTA) methods, with the $R^2$ improvement of $33.64\% \sim 44.20\%$ for edge regression and F1-score gain of $0.9\times \sim 2.1\times$ for node classification. Our code is available at \href{https://anonymous.4open.science/r/CircuitGCL-099B/README.md}{here}.
- Abstract(参考訳): Analog-Mixed Signal (AMS) 回路上のグラフ表現学習は,様々な下流タスク,例えば寄生的推定に不可欠である。
しかし、設計データの不足、ラベルの不均衡分布、回路実装固有の多様性は、堅牢で転送可能な回路表現を学ぶ上で大きな課題となる。
このような制約に対処するために,表現分散とラベルリバランシングを統合し,異種回路グラフ間の転送性を高める新しいグラフコントラスト学習フレームワークCircuitGCLを提案する。
CircuitGCLは、超球面表現散乱によりトポロジ不変ノード埋め込みを学習し、大規模データへの依存をなくす自己教師型戦略を採用している。
同時に、回路間のラベル分布の格差を軽減するために、平均二乗誤差(MSE)とソフトマックスクロスエントロピー(bsmCE)の損失を導入した。
TSMC 28nm AMS設計における寄生容量推定(エッジレベルタスク)とグランドキャパシタンス分類(ノードレベルタスク)に基づいて評価され、CircuitGCLは全ての最先端(SOTA)メソッドを上回り、R^2$3.64\% \sim 44.20\%$はエッジ回帰、F1スコア利得は0.9\times \sim 2.1\times$である。
我々のコードは \href{https://anonymous.4open.science/r/CircuitGCL-099B/README.md}{here} で公開されている。
関連論文リスト
- Few-shot Learning on AMS Circuits and Its Application to Parasitic Capacitance Prediction [2.185633347742123]
グラフ表現学習は、アナログ/混合信号(AMS)回路などのグラフ構造化データから特徴を抽出する強力な手法である。
本稿では,AMS回路における寄生効果予測のための数発の学習手法であるCircuitGPSを提案する。
論文 参考訳(メタデータ) (2025-07-09T04:42:18Z) - Graph Structure Refinement with Energy-based Contrastive Learning [56.957793274727514]
グラフの構造と表現を学習するための生成訓練と識別訓練のジョイントに基づく教師なし手法を提案する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
論文 参考訳(メタデータ) (2024-12-20T04:05:09Z) - End-to-End Supervised Multilabel Contrastive Learning [38.26579519598804]
マルチラベル表現学習は、オブジェクトカテゴリ間のラベル依存やデータ関連の問題に関連付けられる難しい問題として認識されている。
近年の進歩は、モデルとデータ中心の視点からこれらの課題に対処している。
KMCLと呼ばれる新しいエンドツーエンドのトレーニングフレームワークを提案し、モデルとデータ中心の設計の欠点に対処する。
論文 参考訳(メタデータ) (2023-07-08T12:46:57Z) - Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity [55.29408396918968]
多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。