論文の概要: DistShap: Scalable GNN Explanations with Distributed Shapley Values
- arxiv url: http://arxiv.org/abs/2506.22668v1
- Date: Fri, 27 Jun 2025 22:30:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.506392
- Title: DistShap: Scalable GNN Explanations with Distributed Shapley Values
- Title(参考訳): DistShap: 分散シェープ値を備えたスケーラブルなGNN説明
- Authors: Selahattin Akkas, Aditya Devarakonda, Ariful Azad,
- Abstract要約: DistShapは、Shapley値に基づく説明を複数のGPUに分散する並列アルゴリズムである。
既存のほとんどのGNN説明手法を精度で上回り、何百万もの機能を持つGNNモデルに拡張した最初のものである。
- 参考スコア(独自算出の注目度): 1.4235177311914788
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the growing adoption of graph neural networks (GNNs), explaining their predictions has become increasingly important. However, attributing predictions to specific edges or features remains computationally expensive. For example, classifying a node with 100 neighbors using a 3-layer GNN may involve identifying important edges from millions of candidates contributing to the prediction. To address this challenge, we propose DistShap, a parallel algorithm that distributes Shapley value-based explanations across multiple GPUs. DistShap operates by sampling subgraphs in a distributed setting, executing GNN inference in parallel across GPUs, and solving a distributed least squares problem to compute edge importance scores. DistShap outperforms most existing GNN explanation methods in accuracy and is the first to scale to GNN models with millions of features by using up to 128 GPUs on the NERSC Perlmutter supercomputer.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の採用の増加に伴い、その予測がますます重要になっている。
しかし、特定のエッジや特徴への帰属予測は計算コストがかかるままである。
例えば、3層GNNを使用して100の隣接ノードを分類すると、予測に寄与する数百万の候補から重要なエッジが特定される可能性がある。
この課題に対処するために、複数のGPUでShapley値に基づく説明を分散する並列アルゴリズムであるDistShapを提案する。
DistShapは、サブグラフを分散環境でサンプリングし、GPU間でGNN推論を並列に実行し、分散最小二乗問題を解くことでエッジの重要度スコアを計算する。
DistShapは、既存のほとんどのGNN説明手法を精度で上回り、NERSC Perlmutterスーパーコンピュータで最大128GPUを使用することで、数百万の機能をGNNモデルに拡張した最初のものである。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - GNNShap: Scalable and Accurate GNN Explanation using Shapley Values [1.8900595979721027]
グラフニューラルネットワーク(GNN)は、グラフのマシンラーニングモデルとして人気がある。
モデルをどのように予測するかを理解するのは難しい。
ゲーム理論のシェープ値アプローチは、他の領域で一般的な説明法であるが、グラフに対しては十分に研究されていない。
論文 参考訳(メタデータ) (2024-01-09T21:26:33Z) - InferTurbo: A Scalable System for Boosting Full-graph Inference of Graph
Neural Network over Huge Graphs [14.97743380650934]
本稿では,産業シナリオにおけるGNN推論タスクの促進を目的としたInferというシステムを提案する。
シンク・ライク・ア・頂点の哲学に触発されたGASのようなスキーマは、GNN推論の計算パラダイムとデータフローを記述するために提案される。
本システムは,エッジが多数あるいくつかのハブノードを含むグラフ上の推論タスクに対して,堅牢かつ効率的である。
論文 参考訳(メタデータ) (2023-07-01T05:23:28Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Deep Graph Neural Networks with Shallow Subgraph Samplers [22.526363992743278]
本稿では,GNNの精度と効率を両立させるため,簡易な"深部GNN,浅部サンプル"設計法を提案する。
適切にサンプリングされた部分グラフは、無関係またはノイズの多いノードを除外し、依然として重要な隣り合う特徴やグラフ構造を保存できる。
最大の公開グラフデータセットであるogbn-papers100Mでは,ハードウェアコストを大幅に削減して最先端の精度を実現する。
論文 参考訳(メタデータ) (2020-12-02T18:23:48Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。