論文の概要: Not All Neighbors Matter: Understanding the Impact of Graph Sparsification on GNN Pipelines
- arxiv url: http://arxiv.org/abs/2603.06952v1
- Date: Sat, 07 Mar 2026 00:02:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.492402
- Title: Not All Neighbors Matter: Understanding the Impact of Graph Sparsification on GNN Pipelines
- Title(参考訳): グラフスカラー化がGNNパイプラインに与える影響を理解する
- Authors: Yuhang Song, Naima Abrar Shami, Romaric Duvignau, Vasiliki Kalavri,
- Abstract要約: グラフスペーサー化(Graph Sparsification)は、エッジを縮小してスペーサー地区を生成するテクニックである。
GNNのトレーニングとスペーサー付きグラフの推論に関する最初の総合的研究を行う。
以上の結果から,K-Neighborスペーサーは製品グラフ上のモデルサービス性能を0.7%の精度で11.7倍改善することがわかった。
- 参考スコア(独自算出の注目度): 4.381143313862113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As graphs scale to billions of nodes and edges, graph Machine Learning workloads are constrained by the cost of multi-hop traversals over exponentially growing neighborhoods. While various system-level and algorithmic optimizations have been proposed to accelerate Graph Neural Network (GNN) pipelines, data management and movement remain the primary bottlenecks at scale. In this paper, we explore whether graph sparsification, a well-established technique that reduces edges to create sparser neighborhoods, can serve as a lightweight pre-processing step to address these bottlenecks while preserving accuracy on node classification tasks. We develop an extensible experimental framework that enables systematic evaluation of how different sparsification methods affect the performance and accuracy of GNN models. We conduct the first comprehensive study of GNN training and inference on sparsified graphs, revealing several key findings. First, sparsification often preserves or even improves predictive performance. As an example, random sparsification raises the accuracy of the GAT model by 6.8% on the PubMed graph. Second, benefits increase with scale, substantially accelerating both training and inference. Our results show that the K-Neighbor sparsifier improves model serving performance on the Products graph by 11.7x with only a 0.7% accuracy drop. Importantly, we find that the computational overhead of sparsification is quickly amortized, making it practical for very large graphs.
- Abstract(参考訳): グラフが数十億のノードやエッジにスケールするにつれて、グラフ機械学習のワークロードは、指数関数的に成長する地区に対するマルチホップトラバーサルのコストによって制約される。
グラフニューラルネットワーク(GNN)パイプラインを高速化するために、さまざまなシステムレベルとアルゴリズムの最適化が提案されているが、データ管理と移動が大きなボトルネックとなっている。
本稿では,ノード分類タスクの精度を保ちつつ,これらのボトルネックに対処するための軽量な前処理ステップとして,エッジを縮小してスペーサー近傍を創出するグラフスペーシフィケーション(Graph Sparsification)が有効であるかどうかを考察する。
我々は,異なるスペーサー化手法がGNNモデルの性能と精度に与える影響を体系的に評価できる拡張可能な実験フレームワークを開発した。
GNNのトレーニングとスペーサー付きグラフの推測に関する最初の総合的研究を行い、いくつかの重要な知見を明らかにした。
まず、スパシフィケーションは予測性能を保ったり、改善したりすることが多い。
例えば、ランダムスペーシフィケーションは、PubMedグラフ上でGATモデルの精度を6.8%向上させる。
第二に、スケールによってメリットが増加し、トレーニングと推論の両方が大幅に加速します。
以上の結果から,K-Neighborスペーサーは製品グラフ上のモデルサービス性能を0.7%の精度で11.7倍改善することがわかった。
重要なことに、スパシフィケーションの計算オーバーヘッドは急速に減退し、非常に大きなグラフに対して実用的であることが分かる。
関連論文リスト
- Graph Coarsening via Supervised Granular-Ball for Scalable Graph Neural Network Training [30.354103857690777]
グラフデータを効果的に圧縮するために粒度計算を用いる。
我々は、純度閾値に基づいてグラフをグラニュラーボールに繰り返し分割することにより、粗いグラフネットワークを構築する。
我々のアルゴリズムは、予め定義された粗大化率を必要とせずに、スプリッティングを適応的に行うことができる。
論文 参考訳(メタデータ) (2024-12-18T13:36:03Z) - Unifews: You Need Fewer Operations for Efficient Graph Neural Networks [9.66321358222326]
グラフニューラルネットワーク(GNN)は、有望な性能を示すが、グラフスケールの行列に対するリソース集約的な操作のコストがかかる。
グラフと重み行列の演算を統一し、GNN学習効率を向上させるための連成スカラー化手法であるUnifewsを提案する。
論文 参考訳(メタデータ) (2024-03-20T03:07:30Z) - Two Heads Are Better Than One: Boosting Graph Sparse Training via
Semantic and Topological Awareness [80.87683145376305]
グラフニューラルネットワーク(GNN)は、様々なグラフ学習タスクに優れるが、大規模グラフに適用した場合、計算上の課題に直面している。
データレベルで空間を動的に操作するグラフスパーストレーニング(GST)を提案する。
GSTは、最大位相整合性と性能劣化のないスパースグラフを生成する。
論文 参考訳(メタデータ) (2024-02-02T09:10:35Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Triple Sparsification of Graph Convolutional Networks without
Sacrificing the Accuracy [4.023062108297454]
我々は、GNNにおける全てのスペーサー化を研究するために、SparseGCNパイプラインを開発した。
一般的に使用されているベンチマークグラフデータセットの精度を犠牲にすることなく、埋め込み行列に最大11.6%の間隔を追加できることを実証的に示す。
論文 参考訳(メタデータ) (2022-08-06T18:26:30Z) - SCARA: Scalable Graph Neural Networks with Feature-Oriented Optimization [23.609017952951454]
グラフ計算のための特徴指向最適化を備えたスケーラブルグラフニューラルネットワーク(GNN)であるSCARAを提案する。
SCARAはノードの特徴からグラフの埋め込みを効率的に計算し、機能の結果を選択して再利用することでオーバーヘッドを減らします。
利用可能な最大10億のGNNデータセットであるPapers100M(1110万ノード、1.6Bエッジ)を100秒でプリ計算するのが効率的である。
論文 参考訳(メタデータ) (2022-07-19T10:32:11Z) - LSP : Acceleration and Regularization of Graph Neural Networks via
Locality Sensitive Pruning of Graphs [2.4250821950628234]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクのための非常に成功したツールとして登場した。
大きなグラフは、性能を損なうことなく取り除くことができる多くの冗長なコンポーネントを含むことが多い。
そこで我々はLocality-Sensitive Hashingに基づくグラフプルーニングのためのLocality-Sensitive Pruning(LSP)という体系的手法を提案する。
論文 参考訳(メタデータ) (2021-11-10T14:12:28Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。