論文の概要: GROOT: Graph Edge Re-growth and Partitioning for the Verification of Large Designs in Logic Synthesis
- arxiv url: http://arxiv.org/abs/2511.18297v1
- Date: Sun, 23 Nov 2025 05:32:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.75561
- Title: GROOT: Graph Edge Re-growth and Partitioning for the Verification of Large Designs in Logic Synthesis
- Title(参考訳): GROOT: 論理合成における大規模設計検証のためのグラフエッジ再成長と分割
- Authors: Kiran Thorat, Hongwu Peng, Yuebo Luo, Xi Xie, Shaoyi Huang, Amit Hasan, Jiahui Zhao, Yingjie Li, Zhijie Shi, Cunxi Yu, Caiwen Ding,
- Abstract要約: 本稿では,チップ設計領域の知識とGPUカーネルの再設計を含むアルゴリズムとシステムの共同設計フレームワークであるGROOTを紹介する。
We create node features using the circuit node types and the polarity of the connection between the input edges to node in And-Inverter Graphs (AIGs)
GROOTは、非常に大きなCSA、すなわちバッチサイズ16,024ビットの1,024ビットに対して、メモリフットプリント(59.38乗算器、99.96%)を大幅に削減する。
- 参考スコア(独自算出の注目度): 21.172972279993825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional verification methods in chip design are highly time-consuming and computationally demanding, especially for large scale circuits. Graph neural networks (GNNs) have gained popularity as a potential solution to improve verification efficiency. However, there lacks a joint framework that considers all chip design domain knowledge, graph theory, and GPU kernel designs. To address this challenge, we introduce GROOT, an algorithm and system co-design framework that contains chip design domain knowledge and redesigned GPU kernels, to improve verification efficiency. More specifically, we create node features utilizing the circuit node types and the polarity of the connections between the input edges to nodes in And-Inverter Graphs (AIGs). We utilize a graph partitioning algorithm to divide the large graphs into smaller sub-graphs for fast GPU processing and develop a graph edge re-growth algorithm to recover verification accuracy. We carefully profile the EDA graph workloads and observe the uniqueness of their polarized distribution of high degree (HD) nodes and low degree (LD) nodes. We redesign two GPU kernels (HD-kernel and LD-kernel), to fit the EDA graph learning workload on a single GPU. We compare the results with state-of-the-art (SOTA) methods: GAMORA, a GNN-based approach, and the traditional ABC framework. Results show that GROOT achieves a significant reduction in memory footprint (59.38 %), with high accuracy (99.96%) for a very large CSA multiplier, i.e. 1,024 bits with a batch size of 16, which consists of 134,103,040 nodes and 268,140,544 edges. We compare GROOT with GPU-based GPU Kernel designs SOTAs such as cuSPARSE, MergePath-SpMM, and GNNAdvisor. We achieve up to 1.104x, 5.796x, and 1.469x improvement in runtime, respectively.
- Abstract(参考訳): チップ設計における従来の検証手法は、特に大規模回路において、非常に時間がかかり、計算的に要求される。
グラフニューラルネットワーク(GNN)は、検証効率を改善する潜在的なソリューションとして人気を集めている。
しかしながら、チップ設計のドメイン知識、グラフ理論、GPUカーネル設計をすべて考慮した統合フレームワークが欠如している。
この課題に対処するために、チップ設計ドメイン知識と再設計されたGPUカーネルを含むアルゴリズムとシステムの共同設計フレームワークであるGROOTを導入し、検証効率を向上させる。
より具体的には、入力エッジとAnd-Inverter Graphs(AIGs)のノード間の接続の回路ノードタイプと極性を利用するノード機能を作成します。
我々は,グラフ分割アルゴリズムを用いて,大規模グラフをより小さなサブグラフに分割して高速GPU処理を行い,グラフエッジ再成長アルゴリズムを開発した。
EDAグラフのワークロードを慎重にプロファイルし、高次(HD)ノードと低次(LD)ノードの偏極分布の特異性を観察する。
我々は、EDAグラフ学習のワークロードを1つのGPUに適合させるために、2つのGPUカーネル(HDカーネルとLDカーネル)を再設計した。
本稿では,GAMORA,GNNベースのアプローチ,従来のABCフレームワークなど,最先端(SOTA)手法と比較する。
その結果、GROOTはメモリフットプリントの大幅な削減(59.38 %)を達成し、非常に大きなCSA乗算器では高い精度(99.96%)、すなわちバッチサイズ16の1,024ビットが134,103,040ノードと268,140,544エッジで構成されている。
GROOTとGPUベースのGPUカーネル設計SOTA(cuSPARSE, MergePath-SpMM, GNNAdvisor)を比較した。
最大1.104倍、5.796倍、1.469倍の改善を実現しています。
関連論文リスト
- DR-CircuitGNN: Training Acceleration of Heterogeneous Circuit Graph Neural Network on GPUs [24.65955578784123]
不均一グラフニューラルネットワーク(HGNN)は、位相的関係と幾何学的特徴の両方を捉えることにより、EDA回路グラフをよりよく解釈することができる。
EDA関連回路グラフデータセット上でHGNNのトレーニングを高速化するために,行ワイドスペーサリティを意識したDynamic-ReLUを活用する高速GPUカーネル設計のDR-CircuitGNNを提案し,不均一なメッセージパス中にSpMMカーネルを最適化する。
論文 参考訳(メタデータ) (2025-08-22T20:05:38Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Accel-GCN: High-Performance GPU Accelerator Design for Graph Convolution
Networks [12.181052673940465]
グラフ畳み込みネットワーク(GCN)は、様々な領域にわたるグラフデータから潜伏情報を抽出する上で重要である。
本稿では,GCNのためのGPUアクセラレータアーキテクチャであるAccel-GCNを紹介する。
18のベンチマークグラフに対するAccel-GCNの評価では、cuSPARSE、GNNAdvisor、Graph-BLASTをそれぞれ1.17倍、1.86倍、2.94倍で上回っている。
論文 参考訳(メタデータ) (2023-08-22T23:12:17Z) - Accelerating Generic Graph Neural Networks via Architecture, Compiler,
Partition Method Co-Design [15.500725014235412]
グラフニューラルネットワーク(GNN)は,さまざまなグラフ学習領域において,大幅な精度向上を実現している。
GNNモデルのための高性能かつ効率的なハードウェアアクセラレーションを開発することが不可欠である。
設計者は、GNNモデルの高帯域幅要求とGNNモデルの多様性の2つの根本的な課題に直面している。
論文 参考訳(メタデータ) (2023-08-16T07:05:47Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Global Neighbor Sampling for Mixed CPU-GPU Training on Giant Graphs [26.074384252289384]
グラフニューラルネットワーク(GNN)は、グラフデータから学習するための強力なツールであり、様々なアプリケーションで広く利用されている。
大規模なグラフ上でのミニバッチトレーニングを実現するためのサンプリングベース手法が数多く提案されているが、これらの手法は真の産業規模のグラフ上では機能していない。
我々は,CPU-GPUの混合学習に特化して,GNNを巨大なグラフ上でトレーニングすることを目的としたグローバル近隣サンプリングを提案する。
論文 参考訳(メタデータ) (2021-06-11T03:30:25Z) - DistGNN: Scalable Distributed Training for Large-Scale Graph Neural
Networks [58.48833325238537]
大規模グラフの構造を学ぶためにGNN(Graph Neural Networks)のフルバッチトレーニングは、実現可能な数百の計算ノードにスケールする必要がある重要な問題です。
本稿では,CPUクラスタ上でのフルバッチトレーニングのためのDGL(Deep Graph Library)を最適化したGNNについて述べる。
4つの一般的なGNNベンチマークデータセットの結果は、1つのCPUソケットを使用して最大3.7倍のスピードアップ、128のCPUソケットを使用して最大97倍のスピードアップを示す。
論文 参考訳(メタデータ) (2021-04-14T08:46:35Z) - Ramanujan Bipartite Graph Products for Efficient Block Sparse Neural
Networks [2.4235475271758076]
本稿では,グラフ積の理論を用いて,構造化マルチレベルブロックスパースニューラルネットワークを生成するフレームワークを提案する。
ラマヌジャングラフの積も提案するが、これは与えられた範囲で最高の接続性を与える。
我々は,VGG19とWideResnet-40-4ネットワークを用いて,CIFARデータセット上の画像分類タスクを実験することで,我々のアプローチをベンチマークする。
論文 参考訳(メタデータ) (2020-06-24T05:08:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。