論文の概要: Bottleneck Analysis of Dynamic Graph Neural Network Inference on CPU and
GPU
- arxiv url: http://arxiv.org/abs/2210.03900v2
- Date: Thu, 13 Apr 2023 22:00:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 16:54:32.064879
- Title: Bottleneck Analysis of Dynamic Graph Neural Network Inference on CPU and
GPU
- Title(参考訳): CPUおよびGPU上での動的グラフニューラルネットワーク推論のブートネック解析
- Authors: Hanqiu Chen, Yahya Alhinai, Yihan Jiang, Eunjee Na, Cong Hao
- Abstract要約: 動的グラフニューラルネットワーク(DGNN)は、現実世界の動的特徴のキャプチャに広く利用されているため、ますます人気が高まっている。
DGNNをハードウェアにデプロイすることは、モデルの複雑さ、多様性、時間依存性の性質など、さらなる課題を提起する。
我々は、異なる特性を持つ8つの一般的なDGNNを選択し、それらをCPUとGPUの両方でプロファイルする。
- 参考スコア(独自算出の注目度): 3.4214598355901638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic graph neural network (DGNN) is becoming increasingly popular because
of its widespread use in capturing dynamic features in the real world. A
variety of dynamic graph neural networks designed from algorithmic perspectives
have succeeded in incorporating temporal information into graph processing.
Despite the promising algorithmic performance, deploying DGNNs on hardware
presents additional challenges due to the model complexity, diversity, and the
nature of the time dependency. Meanwhile, the differences between DGNNs and
static graph neural networks make hardware-related optimizations for static
graph neural networks unsuitable for DGNNs. In this paper, we select eight
prevailing DGNNs with different characteristics and profile them on both CPU
and GPU. The profiling results are summarized and analyzed, providing in-depth
insights into the bottlenecks of DGNNs on hardware and identifying potential
optimization opportunities for future DGNN acceleration. Followed by a
comprehensive survey, we provide a detailed analysis of DGNN performance
bottlenecks on hardware, including temporal data dependency, workload
imbalance, data movement, and GPU warm-up. We suggest several optimizations
from both software and hardware perspectives. This paper is the first to
provide an in-depth analysis of the hardware performance of DGNN Code is
available at https://github.com/sharc-lab/DGNN_analysis.
- Abstract(参考訳): dynamic graph neural network (dgnn) は、現実世界の動的特徴のキャプチャに広く使われているため、ますます人気が高まっている。
アルゴリズムの観点から設計された様々な動的グラフニューラルネットワークは、時間情報をグラフ処理に組み込むことに成功した。
有望なアルゴリズム性能にもかかわらず、DGNNをハードウェアにデプロイすることは、モデルの複雑さ、多様性、時間依存性の性質など、さらなる課題をもたらす。
一方、DGNNと静的グラフニューラルネットワークの違いにより、静的グラフニューラルネットワークのハードウェア関連最適化はDGNNには適さない。
本稿では、異なる特性を持つ8種類のdgnnを選択し、cpuとgpuの両方でプロファイルする。
プロファイリングの結果を要約して分析し、ハードウェア上のDGNNのボトルネックを詳細に把握し、将来のDGNNアクセラレーションの潜在的な最適化機会を特定する。
次に,ハードウェアにおけるdgnnパフォーマンスのボトルネックについて,時間的データ依存性,ワークロードの不均衡,データ移動,gpuウォームアップなどの詳細な分析を行う。
我々はソフトウェアとハードウェアの両方の観点からいくつかの最適化を提案する。
本稿では,DGNN Codeのハードウェア性能に関する詳細な分析をhttps://github.com/sharc-lab/DGNN_analysisで公開する。
関連論文リスト
- Characterizing and Understanding HGNN Training on GPUs [9.579848162902628]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、レコメンデーションシステムや医療分析など、多くの現実世界の領域で広く採用されている。
HGNNトレーニングの効率を高めるためには、トレーニングプロセス内の実行セマンティクスとパターンを特徴づけて分析し、パフォーマンスボトルネックを特定することが不可欠である。
論文 参考訳(メタデータ) (2024-07-16T14:45:46Z) - Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - Enabling Accelerators for Graph Computing [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学ぶための新しいパラダイムを提供する。
GNNは従来のニューラルネットワークと比較して新しい計算課題を提示している。
この論文は、GNNが基盤となるハードウェアとどのように相互作用するかをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2023-12-16T23:31:20Z) - Neural Tangent Kernels Motivate Graph Neural Networks with
Cross-Covariance Graphs [94.44374472696272]
グラフニューラルネットワーク(GNN)の文脈におけるNTKとアライメントについて検討する。
その結果、2層GNNのアライメントの最適性に関する理論的保証が確立された。
これらの保証は、入力と出力データの相互共分散の関数であるグラフシフト演算子によって特徴づけられる。
論文 参考訳(メタデータ) (2023-10-16T19:54:21Z) - Characterizing the Efficiency of Graph Neural Network Frameworks with a
Magnifying Glass [10.839902229218577]
グラフニューラルネットワーク(GNN)は、さまざまなグラフ関連学習タスクの成功により、大きな注目を集めている。
近年のGNNは,大規模グラフ上でのGNNのミニバッチトレーニングのために,異なるグラフサンプリング手法を用いて開発されている。
グリーンコンピューティングの観点から、フレームワークがどの程度"エコフレンドリー"であるかは不明だ。
論文 参考訳(メタデータ) (2022-11-06T04:22:19Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Characterizing and Understanding Distributed GNN Training on GPUs [2.306379679349986]
グラフニューラルネットワーク(GNN)は、グラフを学習する上で有効であるとして、多くの領域において強力なモデルであることが実証されている。
大規模グラフに対するGNNトレーニングをスケールするために、分散トレーニングが広く採用されている。
論文 参考訳(メタデータ) (2022-04-18T03:47:28Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Computing Graph Neural Networks: A Survey from Algorithms to
Accelerators [2.491032752533246]
グラフニューラルネットワーク(GNN)は、グラフ構造化データからモデル化および学習する能力のため、近年、機械学習の現場で爆発的に普及している。
本稿では,GNNの分野をコンピュータの観点から概観する。
現在のソフトウェアとハードウェアアクセラレーションスキームの詳細な分析を行う。
論文 参考訳(メタデータ) (2020-09-30T22:29:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。