論文の概要: LHNN: Lattice Hypergraph Neural Network for VLSI Congestion Prediction
- arxiv url: http://arxiv.org/abs/2203.12831v1
- Date: Thu, 24 Mar 2022 03:31:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 14:45:38.143257
- Title: LHNN: Lattice Hypergraph Neural Network for VLSI Congestion Prediction
- Title(参考訳): LHNN:VLSI混雑予測のための格子ハイパーグラフニューラルネットワーク
- Authors: Bowen Wang, Guibao Shen, Dong Li, Jianye Hao, Wulong Liu, Yu Huang,
Hongzhong Wu, Yibo Lin, Guangyong Chen, Pheng Ann Heng
- Abstract要約: 格子ハイパーグラフ(格子ハイパーグラフ)は、回路のための新しいグラフ定式化である。
LHNNは、F1スコアのU-netやPix2Pixと比べて、35%以上の改善を常に達成している。
- 参考スコア(独自算出の注目度): 70.31656245793302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Precise congestion prediction from a placement solution plays a crucial role
in circuit placement. This work proposes the lattice hypergraph (LH-graph), a
novel graph formulation for circuits, which preserves netlist data during the
whole learning process, and enables the congestion information propagated
geometrically and topologically. Based on the formulation, we further developed
a heterogeneous graph neural network architecture LHNN, jointing the routing
demand regression to support the congestion spot classification. LHNN
constantly achieves more than 35% improvements compared with U-nets and Pix2Pix
on the F1 score. We expect our work shall highlight essential procedures using
machine learning for congestion prediction.
- Abstract(参考訳): 配置溶液からの正確な混雑予測は回路配置において重要な役割を果たす。
本研究は,学習過程全体を通してネットリストデータを保存し,幾何学的および位相的に混雑情報を伝達する新しい回路用グラフ作成法である格子ハイパーグラフ(lh-graph)を提案する。
この定式化に基づいて,さらにヘテロジニアスグラフニューラルネットワークアーキテクチャLHNNを開発した。
LHNNは、F1スコアのU-netやPix2Pixと比べて、35%以上改善されている。
我々は,混雑予測に機械学習を用いた本質的な手順を強調したい。
関連論文リスト
- Path Signatures and Graph Neural Networks for Slow Earthquake Analysis:
Better Together? [10.002197953627359]
我々は、グラフ畳み込みニューラルネットワーク(GCNN)に経路シグネチャを統合する新しいアプローチ、Path Signature Graph Convolutional Networks (PS-GCNN)を導入する。
本手法は,GPSの時系列データを利用して,スロースリップイベント(SSE)と呼ばれる地震の連続解析に応用する。
提案手法は,地震予知とセンサネットワーク解析の今後の進歩を示すものである。
論文 参考訳(メタデータ) (2024-02-05T22:16:05Z) - Efficient Heterogeneous Graph Learning via Random Projection [65.65132884606072]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Simpler is better: Multilevel Abstraction with Graph Convolutional
Recurrent Neural Network Cells for Traffic Prediction [6.968068088508505]
グラフニューラルネットワーク(GNN)のための新しいシーケンス・ツー・シーケンスアーキテクチャを提案する。
また、カナダのモントリオールで、ストリートレベルのセグメントデータのベンチマークデータセットを新たに発表した。
本モデルでは,ベースライン法と比較して1時間予測で7%以上性能が向上する。
論文 参考訳(メタデータ) (2022-09-08T14:56:29Z) - Invertible Neural Networks for Graph Prediction [22.140275054568985]
本研究では,ディープ・インバーチブル・ニューラルネットワークを用いた条件生成について述べる。
私たちの目標は,前処理と後処理の予測と生成を同時に行うことにあるので,エンドツーエンドのトレーニングアプローチを採用しています。
論文 参考訳(メタデータ) (2022-06-02T17:28:33Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - Training Graph Neural Networks by Graphon Estimation [2.5997274006052544]
本稿では,基礎となるネットワークデータから得られたグラフトン推定値から再サンプリングすることで,グラフニューラルネットワークをトレーニングする。
我々のアプローチは競争力があり、多くの場合、他の過度にスムースなGNNトレーニング手法よりも優れています。
論文 参考訳(メタデータ) (2021-09-04T19:21:48Z) - Implementing a foveal-pit inspired filter in a Spiking Convolutional
Neural Network: a preliminary study [0.0]
我々は,網膜卵管刺激によるガウスフィルタとランク順符号化の差異を取り入れたスポーキング畳み込みニューラルネットワーク(SCNN)を提示した。
このモデルは、Nengoライブラリーで実装されているように、スパイキングニューロンで動作するように適応されたバックプロパゲーションアルゴリズムの変種を用いて訓練される。
ネットワークは最大90%の精度で達成され、損失はクロスエントロピー関数を用いて計算される。
論文 参考訳(メタデータ) (2021-05-29T15:28:30Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。