論文の概要: DR-CircuitGNN: Training Acceleration of Heterogeneous Circuit Graph Neural Network on GPUs
- arxiv url: http://arxiv.org/abs/2508.16769v1
- Date: Fri, 22 Aug 2025 20:05:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.169424
- Title: DR-CircuitGNN: Training Acceleration of Heterogeneous Circuit Graph Neural Network on GPUs
- Title(参考訳): DR-CircuitGNN:GPUを用いた不均一回路グラフニューラルネットワークのトレーニング高速化
- Authors: Yuebo Luo, Shiyang Li, Junran Tao, Kiran Thorat, Xi Xie, Hongwu Peng, Nuo Xu, Caiwen Ding, Shaoyi Huang,
- Abstract要約: 不均一グラフニューラルネットワーク(HGNN)は、位相的関係と幾何学的特徴の両方を捉えることにより、EDA回路グラフをよりよく解釈することができる。
EDA関連回路グラフデータセット上でHGNNのトレーニングを高速化するために,行ワイドスペーサリティを意識したDynamic-ReLUを活用する高速GPUカーネル設計のDR-CircuitGNNを提案し,不均一なメッセージパス中にSpMMカーネルを最適化する。
- 参考スコア(独自算出の注目度): 24.65955578784123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing scale and complexity of integrated circuit design have led to increased challenges in Electronic Design Automation (EDA). Graph Neural Networks (GNNs) have emerged as a promising approach to assist EDA design as circuits can be naturally represented as graphs. While GNNs offer a foundation for circuit analysis, they often fail to capture the full complexity of EDA designs. Heterogeneous Graph Neural Networks (HGNNs) can better interpret EDA circuit graphs as they capture both topological relationships and geometric features. However, the improved representation capability comes at the cost of even higher computational complexity and processing cost due to their serial module-wise message-passing scheme, creating a significant performance bottleneck. In this paper, we propose DR-CircuitGNN, a fast GPU kernel design by leveraging row-wise sparsity-aware Dynamic-ReLU and optimizing SpMM kernels during heterogeneous message-passing to accelerate HGNNs training on EDA-related circuit graph datasets. To further enhance performance, we propose a parallel optimization strategy that maximizes CPU-GPU concurrency by concurrently processing independent subgraphs using multi-threaded CPU initialization and GPU kernel execution via multiple cudaStreams. Our experiments show that on three representative CircuitNet designs (small, medium, large), the proposed method can achieve up to 3.51x and 4.09x speedup compared to the SOTA for forward and backward propagation, respectively. On full-size CircuitNet and sampled Mini-CircuitNet, our parallel design enables up to 2.71x speed up over the official DGL implementation cuSPARSE with negligible impact on correlation scores and error rates.
- Abstract(参考訳): 集積回路設計の規模と複雑さの増大により、電子設計自動化(EDA)の課題が増大した。
グラフニューラルネットワーク(GNN)は、回路が自然にグラフとして表現できるため、EDA設計を支援するための有望なアプローチとして登場した。
GNNは回路解析の基盤を提供するが、EDA設計の複雑さを完全に捉えることに失敗することが多い。
不均一グラフニューラルネットワーク(HGNN)は、位相的関係と幾何学的特徴の両方を捉えることにより、EDA回路グラフをよりよく解釈することができる。
しかし、改良された表現能力は、シリアルモジュール単位のメッセージパッシングスキームのために、計算の複雑さと処理コストがさらに高くなり、パフォーマンスのボトルネックを生じさせる。
本稿では, DR-CircuitGNNを提案する。DR-CircuitGNNは, EDA関連サーキットグラフデータセット上でのHGNNのトレーニングを高速化するために, 行ワイドスペーサリティを意識したDynamic-ReLUと, 異種メッセージパス中のSpMMカーネルの最適化による高速GPUカーネル設計である。
マルチスレッドCPUの初期化とGPUカーネルの実行を複数キューダストリームで並列処理することで,CPUとGPUの並行処理を最大化する並列最適化手法を提案する。
実験の結果,提案手法は3つの代表的なCircuitNet設計(小,中,大)において,SOTAよりも最大3.51倍,4.09倍の高速化を実現可能であることがわかった。
フルサイズのCircuitNetとサンプル化したMini-CircuitNetでは、公式のDGL実装であるcuSPARSEよりも最大2.71倍高速で、相関スコアとエラーレートに無視できる。
関連論文リスト
- Efficient Message Passing Architecture for GCN Training on HBM-based FPGAs with Orthogonal Topology On-Chip Networks [0.0]
グラフ畳み込みネットワーク(GCN)は、グラフ上の表現学習のための最先端のディープラーニングモデルである。
NUMAベースのメモリアクセス特性を利用したメッセージパッシングアーキテクチャを提案する。
また,提案アクセラレータ内でGCN特有のバックプロパゲーションアルゴリズムを再設計した。
論文 参考訳(メタデータ) (2024-11-06T12:00:51Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - CktGNN: Circuit Graph Neural Network for Electronic Design Automation [67.29634073660239]
本稿では,回路トポロジ生成とデバイスサイズを同時に行う回路グラフニューラルネットワーク(CktGNN)を提案する。
オープンサーキットベンチマーク(OCB: Open Circuit Benchmark)は、オープンソースのデータセットで、10ドル(約10万円)の異なるオペレーショナルアンプを含む。
我々の研究は、アナログ回路のための学習ベースのオープンソース設計自動化への道を開いた。
論文 参考訳(メタデータ) (2023-08-31T02:20:25Z) - Exploiting On-chip Heterogeneity of Versal Architecture for GNN
Inference Acceleration [0.5249805590164902]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワーク分析やバイオインフォマティクスなど、多くの機械学習(ML)アプリケーションに革命をもたらした。
我々は,AMD Versal ACAPアーキテクチャの不均一な計算能力を活用し,GNN推論を高速化する。
グラフ畳み込みネットワーク(GCN)では,同一のACAPデバイス上でのみPLを用いた設計と比較して3.9-96.7倍の高速化を実現している。
論文 参考訳(メタデータ) (2023-08-04T23:57:55Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - SPA-GCN: Efficient and Flexible GCN Accelerator with an Application for
Graph Similarity Computation [7.54579279348595]
本稿では,グラフ上のグラフ畳み込みネットワーク(GCN)を高速化するための,SPA-GCNと呼ばれる柔軟なアーキテクチャを提案する。
SPA-GCNはマルチコアCPU実装やGPU実装と比較して高速に動作可能であることを示す。
論文 参考訳(メタデータ) (2021-11-10T20:47:57Z) - GraphACT: Accelerating GCN Training on CPU-FPGA Heterogeneous Platforms [1.2183405753834562]
グラフ畳み込みネットワーク(GCN)は、グラフ上での表現学習のための最先端のディープラーニングモデルとして登場した。
実質的かつ不規則なデータ通信のため、GCNの訓練を加速することは困難である。
我々はCPU-FPGAヘテロジニアスシステム上でGCNをトレーニングするための新しいアクセラレータを設計する。
論文 参考訳(メタデータ) (2019-12-31T21:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。