論文の概要: Algorithm and System Co-design for Efficient Subgraph-based Graph
Representation Learning
- arxiv url: http://arxiv.org/abs/2202.13538v1
- Date: Mon, 28 Feb 2022 04:29:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 18:23:26.867740
- Title: Algorithm and System Co-design for Efficient Subgraph-based Graph
Representation Learning
- Title(参考訳): 効率的なグラフ表現学習のためのアルゴリズムとシステム共設計
- Authors: Haoteng Yin, Muhan Zhang, Yanbang Wang, Jianguo Wang, Pan Li
- Abstract要約: グラフ表現学習(SGRL)は、最近、標準グラフニューラルネットワーク(GNN)が直面するいくつかの根本的な課題に対処するために提案されている。
本稿では,学習アルゴリズムとそのシステムサポートを共同設計し,スケーラブルなSGRLのための新しいフレームワークSURELを提案する。
- 参考スコア(独自算出の注目度): 16.170895692951
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Subgraph-based graph representation learning (SGRL) has been recently
proposed to deal with some fundamental challenges encountered by canonical
graph neural networks (GNNs), and has demonstrated advantages in many important
data science applications such as link, relation and motif prediction. However,
current SGRL approaches suffer from a scalability issue since they require
extracting subgraphs for each training and testing query. Recent solutions that
scale up canonical GNNs may not apply to SGRL. Here, we propose a novel
framework SUREL for scalable SGRL by co-designing the learning algorithm and
its system support. SUREL adopts walk-based decomposition of subgraphs and
reuses the walks to form subgraphs, which substantially reduces the redundancy
of subgraph extraction and supports parallel computation. Experiments over
seven homogeneous, heterogeneous and higher-order graphs with millions of nodes
and edges demonstrate the effectiveness and scalability of SUREL. In
particular, compared to SGRL baselines, SUREL achieves 10$\times$ speed-up with
comparable or even better prediction performance; while compared to canonical
GNNs, SUREL achieves 50% prediction accuracy improvement. SUREL is also applied
to the brain vessel prediction task. SUREL significantly outperforms the
state-of-the-art baseline in both prediction accuracy and efficiency.
- Abstract(参考訳): subgraph-based graph representation learning (sgrl) は、canonical graph neural networks (gnns)が直面するいくつかの根本的な課題に対処するために最近提案され、リンク、関係、モチーフ予測といった多くの重要なデータサイエンスアプリケーションで利点が示されている。
しかし、現在のSGRLアプローチは、トレーニングとテストのクエリごとにサブグラフを抽出する必要があるため、スケーラビリティの問題に悩まされている。
標準GNNをスケールアップする最近のソリューションは、SGRLには適用できない。
本稿では,学習アルゴリズムとそのシステムサポートを共同設計し,スケーラブルなSGRLのための新しいフレームワークSURELを提案する。
SURELはウォークベースのサブグラフ分解を採用し、ウォークを再利用してサブグラフを形成し、サブグラフ抽出の冗長性を著しく低減し、並列計算をサポートする。
数百万のノードとエッジを持つ7つの均質で異質な高次グラフに関する実験は、surelの有効性と拡張性を示している。
特に、sgrlのベースラインと比較して、sllは10$\times$のスピードアップを達成し、同等またはそれ以上の予測性能を達成している。
また、SURELは脳血管予測タスクにも適用される。
SURELは予測精度と効率の両方で最先端のベースラインを大幅に上回る。
関連論文リスト
- Faster Inference Time for GNNs using coarsening [1.323700980948722]
粗い手法はグラフを小さくするために使われ、計算が高速化される。
これまでの調査では、推論中にコストに対処できなかった。
本稿では, サブグラフベース手法によるGNNのスケーラビリティ向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:27:24Z) - Haste Makes Waste: A Simple Approach for Scaling Graph Neural Networks [37.41604955004456]
グラフニューラルネットワーク(GNN)はグラフ表現学習において顕著な成功を収めている。
GNNを大規模グラフのアプリケーションに拡張するための様々なサンプリング手法が提案されている。
論文 参考訳(メタデータ) (2024-10-07T18:29:02Z) - Enhanced Expressivity in Graph Neural Networks with Lanczos-Based Linear Constraints [7.605749412696919]
グラフニューラルネットワーク(GNN)はグラフ構造化データの処理に優れるが、リンク予測タスクでは性能が劣ることが多い。
グラフラプラシア行列の固有基底に誘導された部分グラフを埋め込むことによりGNNの表現性を高める新しい手法を提案する。
提案手法は,PubMedとOGBL-Vesselのデータセットから,5%と10%のデータしか必要とせず,20倍と10倍の高速化を実現する。
論文 参考訳(メタデータ) (2024-08-22T12:22:00Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - SUREL+: Moving from Walks to Sets for Scalable Subgraph-based Graph
Representation Learning [30.77279782495266]
グラフ上の多くの予測タスクにおいて,グラフ表現学習(SGRL)が強力なツールとして登場した。
本稿では,SUREL+の更新を行う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T18:58:13Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - SCARA: Scalable Graph Neural Networks with Feature-Oriented Optimization [23.609017952951454]
グラフ計算のための特徴指向最適化を備えたスケーラブルグラフニューラルネットワーク(GNN)であるSCARAを提案する。
SCARAはノードの特徴からグラフの埋め込みを効率的に計算し、機能の結果を選択して再利用することでオーバーヘッドを減らします。
利用可能な最大10億のGNNデータセットであるPapers100M(1110万ノード、1.6Bエッジ)を100秒でプリ計算するのが効率的である。
論文 参考訳(メタデータ) (2022-07-19T10:32:11Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。