論文の概要: BlockGNN: Towards Efficient GNN Acceleration Using Block-Circulant
Weight Matrices
- arxiv url: http://arxiv.org/abs/2104.06214v1
- Date: Tue, 13 Apr 2021 14:09:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:39:43.995276
- Title: BlockGNN: Towards Efficient GNN Acceleration Using Block-Circulant
Weight Matrices
- Title(参考訳): BlockGNN: ブロック回路ウェイト行列を用いた効率的なGNN高速化を目指す
- Authors: Zhe Zhou, Bizhao Shi, Zhe Zhang, Yijin Guan, Guangyu Sun, Guojie Luo
- Abstract要約: グラフニューラルネットワーク(GNN)は、非ユークリッドグラフデータを分析するための最先端のアルゴリズムです。
リアルタイムにGNNを推論する方法は、リソース制限のあるエッジコンピューティングプラットフォームでは難しい問題となっている。
効率的なGNN加速を実現するソフトウェアハードウェアの共同設計手法であるBlockGNNを提案する。
- 参考スコア(独自算出の注目度): 9.406007544032848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Graph Neural Networks (GNNs) appear to be state-of-the-art
algorithms for analyzing non-euclidean graph data. By applying deep-learning to
extract high-level representations from graph structures, GNNs achieve
extraordinary accuracy and great generalization ability in various tasks.
However, with the ever-increasing graph sizes, more and more complicated GNN
layers, and higher feature dimensions, the computational complexity of GNNs
grows exponentially. How to inference GNNs in real time has become a
challenging problem, especially for some resource-limited edge-computing
platforms.
To tackle this challenge, we propose BlockGNN, a software-hardware co-design
approach to realize efficient GNN acceleration. At the algorithm level, we
propose to leverage block-circulant weight matrices to greatly reduce the
complexity of various GNN models. At the hardware design level, we propose a
pipelined CirCore architecture, which supports efficient block-circulant
matrices computation. Basing on CirCore, we present a novel BlockGNN
accelerator to compute various GNNs with low latency. Moreover, to determine
the optimal configurations for diverse deployed tasks, we also introduce a
performance and resource model that helps choose the optimal hardware
parameters automatically. Comprehensive experiments on the ZC706 FPGA platform
demonstrate that on various GNN tasks, BlockGNN achieves up to $8.3\times$
speedup compared to the baseline HyGCN architecture and $111.9\times$ energy
reduction compared to the Intel Xeon CPU platform.
- Abstract(参考訳): 近年、グラフニューラルネットワーク(GNN)は非ユークリッドグラフデータを解析するための最先端のアルゴリズムのように見える。
グラフ構造から高次表現を抽出するためにディープラーニングを適用することで、GNNは様々なタスクにおいて異常な精度と大きな一般化能力を達成する。
しかし、グラフのサイズが増加し、より複雑なGNN層が増加し、より高い特徴次元が得られ、GNNの計算複雑性は指数関数的に増大する。
GNNをリアルタイムに推論する方法は、特にリソース制限のあるエッジコンピューティングプラットフォームでは、難しい問題となっている。
この課題に対処するため,効率的なGNN加速を実現するソフトウェア・ハードウェア共同設計手法であるBlockGNNを提案する。
アルゴリズムレベルでは、ブロック循環重み行列を利用して様々なgnnモデルの複雑さを大幅に低減する。
ハードウェア設計レベルでは,効率的なブロック循環行列計算をサポートするパイプラインCirCoreアーキテクチャを提案する。
CirCoreをベースとして,様々なGNNを低レイテンシで計算するBlockGNNアクセラレータを提案する。
さらに,多様なデプロイタスクの最適構成を決定するために,最適化されたハードウェアパラメータを自動的に選択するのに役立つ性能と資源モデルを導入する。
ZC706 FPGAプラットフォームに関する総合的な実験では、BlockGNNはベースラインのHyGCNアーキテクチャと比較して最大8.3\times$スピードアップ、Intel Xeon CPUプラットフォームと比較して111.9\times$エネルギ削減を実現している。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - MaxK-GNN: Extremely Fast GPU Kernel Design for Accelerating Graph Neural Networks Training [7.193336207798203]
アルゴリズムとシステム革新を統合した高性能GPUトレーニングシステムMaxK-GNNを提案する。
実験により、マックスK-GNNシステムは、アムダールの法則に従って理論的なスピードアップ限界に接近できることが示された。
我々はSOTA GNNに匹敵する精度を達成したが、Redditでは3.22/4.24倍のスピードアップ(理論上の限界vs, 5.52/7.27倍)を実現した。
論文 参考訳(メタデータ) (2023-12-14T05:00:49Z) - Cached Operator Reordering: A Unified View for Fast GNN Training [24.917363701638607]
グラフニューラルネットワーク(GNN)は、構造化グラフデータを扱う強力なツールであり、ノード分類、グラフ分類、クラスタリングといったタスクに対処する。
しかし、GNN計算のスパース性は、従来のディープニューラルネットワークと比較してパフォーマンス最適化に新たな課題をもたらす。
GNN計算,I/O,メモリの統一的なビューを提供することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2023-08-23T12:27:55Z) - Hardware-Aware Graph Neural Network Automated Design for Edge Computing
Platforms [9.345807588929734]
HGNASは、リソース制約エッジデバイスをターゲットにした最初のハードウェア対応グラフニューラルネットワーク検索フレームワークとして提案されている。
その結果、HGNASは、様々なエッジデバイス上でのDGCNNと比較して、無視できる精度の損失で、約10.6倍のスピードアップと8.2%のピークメモリ削減を達成できることがわかった。
論文 参考訳(メタデータ) (2023-03-20T05:18:31Z) - Distributed Graph Neural Network Training: A Survey [51.77035975191926]
グラフニューラルネットワーク(GNN)は、グラフに基づいてトレーニングされたディープラーニングモデルの一種で、さまざまな領域にうまく適用されている。
GNNの有効性にもかかわらず、GNNが大規模グラフに効率的にスケールすることは依然として困難である。
治療法として、分散コンピューティングは大規模GNNをトレーニングするための有望なソリューションとなる。
論文 参考訳(メタデータ) (2022-11-01T01:57:00Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Parallel and Distributed Graph Neural Networks: An In-Depth Concurrency
Analysis [28.464210819376593]
グラフニューラルネットワーク(GNN)は、ディープラーニングにおいて最も強力なツールのひとつだ。
ノード分類、グラフ分類、リンク予測などの非構造化ネットワーク上の複雑な問題を高精度に解決する。
しかし、GNNの推論とトレーニングは複雑であり、不規則なグラフ処理の特徴と密度と正規な計算を一意に組み合わせている。
この複雑さは、現代の大規模並列アーキテクチャ上でGNNを効率的に実行することを非常に困難にしている。
論文 参考訳(メタデータ) (2022-05-19T17:11:45Z) - TC-GNN: Bridging Sparse GNN Computation and Dense Tensor Cores on GPUs [21.63854538768414]
我々はGPUコアユニット(TCU)をベースとした最初のGNNフレームワークであるTC-GNNを提案する。
中心となるアイデアは、"スパース"GNNを高性能な"デンス"TCUと整合させることである。
厳密な実験は、最先端のDGLフレームワーク上で平均1.70のスピードアップを示している。
論文 参考訳(メタデータ) (2021-12-03T18:06:23Z) - Training Graph Neural Networks with 1000 Layers [133.84813995275988]
我々は、GNNのメモリとパラメータ効率を向上させるために、可逆接続、グループ畳み込み、重み付け、平衡モデルについて検討する。
我々の知る限りでは、RevGNN-Deepは文学で最も深いGNNである。
論文 参考訳(メタデータ) (2021-06-14T15:03:00Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。