論文の概要: Generalizable Cross-Graph Embedding for GNN-based Congestion Prediction
- arxiv url: http://arxiv.org/abs/2111.05941v1
- Date: Wed, 10 Nov 2021 20:56:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 13:33:00.592317
- Title: Generalizable Cross-Graph Embedding for GNN-based Congestion Prediction
- Title(参考訳): GNNによる混雑予測のための一般化可能なクロスグラフ埋め込み
- Authors: Amur Ghose, Vincent Zhang, Yingxue Zhang, Dong Li, Wulong Liu, Mark
Coates
- Abstract要約: 我々は,ノード機能の品質を高めるために,与えられたネットリストの埋め込みを直接学習できるフレームワークを提案する。
ネットリスト上に学習した埋め込みとGNNを組み合わせることで、予測性能を改善し、新しい回路ラインに一般化し、トレーニングの効率化を実現し、実行時に90 %以上節約できる可能性がある。
- 参考スコア(独自算出の注目度): 22.974348682859322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Presently with technology node scaling, an accurate prediction model at early
design stages can significantly reduce the design cycle. Especially during
logic synthesis, predicting cell congestion due to improper logic combination
can reduce the burden of subsequent physical implementations. There have been
attempts using Graph Neural Network (GNN) techniques to tackle congestion
prediction during the logic synthesis stage. However, they require informative
cell features to achieve reasonable performance since the core idea of GNNs is
built on the message passing framework, which would be impractical at the early
logic synthesis stage. To address this limitation, we propose a framework that
can directly learn embeddings for the given netlist to enhance the quality of
our node features. Popular random-walk based embedding methods such as
Node2vec, LINE, and DeepWalk suffer from the issue of cross-graph alignment and
poor generalization to unseen netlist graphs, yielding inferior performance and
costing significant runtime. In our framework, we introduce a superior
alternative to obtain node embeddings that can generalize across netlist graphs
using matrix factorization methods. We propose an efficient mini-batch training
method at the sub-graph level that can guarantee parallel training and satisfy
the memory restriction for large-scale netlists. We present results utilizing
open-source EDA tools such as DREAMPLACE and OPENROAD frameworks on a variety
of openly available circuits. By combining the learned embedding on top of the
netlist with the GNNs, our method improves prediction performance, generalizes
to new circuit lines, and is efficient in training, potentially saving over $90
\%$ of runtime.
- Abstract(参考訳): 現在、技術ノードのスケーリングにより、設計初期段階の正確な予測モデルは設計サイクルを大幅に削減することができる。
特に論理合成において,不適切な論理結合によるセル混雑の予測は,その後の物理実装の負担を軽減することができる。
論理合成段階における混雑予測にグラフニューラルネットワーク(GNN)を用いた手法が試みられている。
しかし、GNNのコアアイデアはメッセージパッシングフレームワーク上に構築されており、初期のロジック合成段階では実用的ではないため、適切なパフォーマンスを達成するには情報的なセル機能が必要である。
この制限に対処するために、ノード機能の品質を高めるために、与えられたネットリストへの埋め込みを直接学習できるフレームワークを提案する。
node2vec、line、deepwalkといった一般的なランダムウォークベースの埋め込みメソッドは、クロスグラフアライメントの問題と、見えないnetlistグラフへの貧弱な一般化に苦しんでいる。
このフレームワークでは,行列分解法を用いてネットリストグラフをまたいで一般化できるノード埋め込みを得るための優れた選択肢を提案する。
本稿では,並列トレーニングを保証し,大規模ネットリストのメモリ制限を満たすサブグラフレベルでの効率的なミニバッチトレーニング手法を提案する。
DREAMPLACE や OPENROAD などのオープンソース EDA ツールを,様々な利用可能な回路上で利用した。
ネットリスト上に学習した埋め込みとGNNを組み合わせることで、予測性能を改善し、新しい回路ラインに一般化し、トレーニングの効率化を実現し、実行時に90ドル以上節約できる可能性がある。
関連論文リスト
- Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Analyzing the Performance of Graph Neural Networks with Pipe Parallelism [2.269587850533721]
ノードやエッジの分類やリンクの予測といったタスクで大きな成功を収めたグラフニューラルネットワーク(GNN)に注目した。
グラフ技術の進歩には,大規模ネットワーク処理のための新たなアプローチが必要である。
私たちは、ディープラーニングコミュニティで成功したと知られている既存のツールとフレームワークを使用して、GNNを並列化する方法を研究します。
論文 参考訳(メタデータ) (2020-12-20T04:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。