論文の概要: Acceleration Algorithms in GNNs: A Survey
- arxiv url: http://arxiv.org/abs/2405.04114v1
- Date: Tue, 7 May 2024 08:34:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 14:49:39.370309
- Title: Acceleration Algorithms in GNNs: A Survey
- Title(参考訳): GNNにおける高速化アルゴリズム: サーベイ
- Authors: Lu Ma, Zeang Sheng, Xunkai Li, Xinyi Gao, Zhezheng Hao, Ling Yang, Wentao Zhang, Bin Cui,
- Abstract要約: グラフニューラルネットワーク(GNN)は、様々なグラフベースのタスクにおいて有効性を示している。
トレーニングと推論の非効率性は、実世界の大規模グラフアプリケーションにスケールアップする上での課題である。
GNNの訓練と推論を高速化するアルゴリズムが提案されている。
- 参考スコア(独自算出の注目度): 34.28669696478494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have demonstrated effectiveness in various graph-based tasks. However, their inefficiency in training and inference presents challenges for scaling up to real-world and large-scale graph applications. To address the critical challenges, a range of algorithms have been proposed to accelerate training and inference of GNNs, attracting increasing attention from the research community. In this paper, we present a systematic review of acceleration algorithms in GNNs, which can be categorized into three main topics based on their purpose: training acceleration, inference acceleration, and execution acceleration. Specifically, we summarize and categorize the existing approaches for each main topic, and provide detailed characterizations of the approaches within each category. Additionally, we review several libraries related to acceleration algorithms in GNNs and discuss our Scalable Graph Learning (SGL) library. Finally, we propose promising directions for future research. A complete summary is presented in our GitHub repository: https://github.com/PKU-DAIR/SGL/blob/main/Awsome-GNN-Acceleration.md.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、様々なグラフベースのタスクにおいて有効性を示す。
しかしながら、トレーニングと推論におけるそれらの非効率性は、実世界の大規模グラフアプリケーションにスケールアップする上での課題を提起する。
批判的な課題に対処するため、GNNの訓練と推論を加速するアルゴリズムが提案され、研究コミュニティから注目が集まっている。
本稿では,GNNにおける高速化アルゴリズムの体系的レビューを行い,学習促進,推論加速,実行加速の3つの目的に基づいて分類できる。
具体的には、各トピックについて既存のアプローチをまとめて分類し、各カテゴリにおけるアプローチの詳細な特徴付けを提供する。
さらに、GNNにおけるアクセラレーションアルゴリズムに関連するいくつかのライブラリをレビューし、スケーラブルグラフ学習(SGL)ライブラリについて議論する。
最後に,今後の研究に期待できる方向性を提案する。
完全な概要はGitHubリポジトリに記載されている。 https://github.com/PKU-DAIR/SGL/blob/main/Awsome-GNN-Acceleration.md。
関連論文リスト
- Faster Inference Time for GNNs using coarsening [1.323700980948722]
粗い手法はグラフを小さくするために使われ、計算が高速化される。
これまでの調査では、推論中にコストに対処できなかった。
本稿では, サブグラフベース手法によるGNNのスケーラビリティ向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:27:24Z) - A Survey on Graph Neural Network Acceleration: Algorithms, Systems, and
Customized Hardware [30.525912505620685]
グラフ構造化データに関する機械学習研究のために、グラフニューラルネットワーク(GNN)が登場している。
GNNは多くのタスクで最先端のパフォーマンスを実現するが、現実のアプリケーションではスケーラビリティの問題に直面している。
我々は,GNN加速の分類学を提供し,既存のアプローチをレビューし,今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2023-06-24T20:20:45Z) - Distributed Graph Neural Network Training: A Survey [51.77035975191926]
グラフニューラルネットワーク(GNN)は、グラフに基づいてトレーニングされたディープラーニングモデルの一種で、さまざまな領域にうまく適用されている。
GNNの有効性にもかかわらず、GNNが大規模グラフに効率的にスケールすることは依然として困難である。
治療法として、分散コンピューティングは大規模GNNをトレーニングするための有望なソリューションとなる。
論文 参考訳(メタデータ) (2022-11-01T01:57:00Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Survey on Graph Neural Network Acceleration: An Algorithmic Perspective [42.88720757069427]
グラフニューラルネットワーク(GNN)は最近の研究のホットスポットであり、多様なアプリケーションで広く利用されている。
本稿では,アルゴリズムの観点から,GNNの高速化手法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2022-02-10T04:01:40Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Computing Graph Neural Networks: A Survey from Algorithms to
Accelerators [2.491032752533246]
グラフニューラルネットワーク(GNN)は、グラフ構造化データからモデル化および学習する能力のため、近年、機械学習の現場で爆発的に普及している。
本稿では,GNNの分野をコンピュータの観点から概観する。
現在のソフトウェアとハードウェアアクセラレーションスキームの詳細な分析を行う。
論文 参考訳(メタデータ) (2020-09-30T22:29:27Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。