論文の概要: Parallelizing Node-Level Explainability in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2601.04807v1
- Date: Thu, 08 Jan 2026 10:39:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.164275
- Title: Parallelizing Node-Level Explainability in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるノードレベル説明可能性の並列化
- Authors: Oscar Llorente, Jaime Boal, Eugenio F. Sánchez-Úbeda, Antonio Diaz-Cano, Miguel Familiar,
- Abstract要約: グラフニューラルネットワーク(GNN)は、幅広いタスクにおいて顕著なパフォーマンスを示している。
ノード分類において、ノードレベルの説明可能性は非常に時間がかかり、グラフのサイズが大きくなる。
本稿では,グラフ分割によるGNNにおけるノードレベルの説明可能性の並列化手法を提案する。
- 参考スコア(独自算出の注目度): 0.3262230127283452
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have demonstrated remarkable performance in a wide range of tasks, such as node classification, link prediction, and graph classification, by exploiting the structural information in graph-structured data. However, in node classification, computing node-level explainability becomes extremely time-consuming as the size of the graph increases, while batching strategies often degrade explanation quality. This paper introduces a novel approach to parallelizing node-level explainability in GNNs through graph partitioning. By decomposing the graph into disjoint subgraphs, we enable parallel computation of explainability for node neighbors, significantly improving the scalability and efficiency without affecting the correctness of the results, provided sufficient memory is available. For scenarios where memory is limited, we further propose a dropout-based reconstruction mechanism that offers a controllable trade-off between memory usage and explanation fidelity. Experimental results on real-world datasets demonstrate substantial speedups, enabling scalable and transparent explainability for large-scale GNN models.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノード分類、リンク予測、グラフ分類などの幅広いタスクにおいて、グラフ構造化データの構造情報を活用することにより、顕著な性能を示す。
しかしノード分類では、グラフのサイズが大きくなるにつれてノードレベルの説明可能性の計算は非常に時間がかかり、バッチ化戦略は説明の質を劣化させることが多い。
本稿では,グラフ分割によるGNNにおけるノードレベルの説明可能性の並列化手法を提案する。
グラフを不連結部分グラフに分解することにより、ノード近傍の説明可能性の並列計算を可能にし、十分なメモリが利用可能であれば、結果の正確性に影響を与えることなく、スケーラビリティと効率を大幅に改善する。
メモリ使用量に制限のあるシナリオに対しては,メモリ使用量と説明忠実度を制御可能なトレードオフを提供するドロップアウトベースの再構成機構を提案する。
実世界のデータセットに対する実験結果は、大規模なGNNモデルに対して、スケーラブルで透過的な説明可能性を実現するために、かなりのスピードアップを示す。
関連論文リスト
- Node Identifiers: Compact, Discrete Representations for Efficient Graph Learning [10.018324412893287]
本稿では、高コンパクト(典型的には6-15次元)、離散(int4型)、解釈可能なノード表現を生成する新しいエンドツーエンドフレームワークを提案する。
ベクトル量子化を用いることで、グラフニューラルネットワーク(GNN)の複数層からの連続ノード埋め込みを離散コードに圧縮する。
これらのノードIDはグラフデータの高レベルな抽象化をキャプチャし、従来のGNN埋め込みに欠けている解釈性を提供する。
論文 参考訳(メタデータ) (2024-05-26T05:22:38Z) - Self-Attention Empowered Graph Convolutional Network for Structure
Learning and Node Embedding [5.164875580197953]
グラフ構造化データの表現学習では、多くの人気のあるグラフニューラルネットワーク(GNN)が長距離依存をキャプチャできない。
本稿では,自己注意型グラフ畳み込みネットワーク(GCN-SA)と呼ばれる新しいグラフ学習フレームワークを提案する。
提案手法はノードレベルの表現学習において例外的な一般化能力を示す。
論文 参考訳(メタデータ) (2024-03-06T05:00:31Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - GraphRARE: Reinforcement Learning Enhanced Graph Neural Network with Relative Entropy [21.553180564868306]
GraphRAREはノード相対エントロピーと深層強化学習に基づいて構築されたフレームワークである。
革新的なノード相対エントロピーは、ノードペア間の相互情報を測定するために使用される。
グラフトポロジを最適化するために,深層強化学習に基づくアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-15T11:30:18Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Node Similarity Preserving Graph Convolutional Networks [51.520749924844054]
グラフニューラルネットワーク(GNN)は、ノード近傍の情報を集約し変換することで、グラフ構造とノードの特徴を探索する。
グラフ構造を利用してノード類似性を効果的かつ効率的に保存できるSimP-GCNを提案する。
本研究は,SimP-GCNが3つの分類グラフと4つの非補助グラフを含む7つのベンチマークデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2020-11-19T04:18:01Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z) - Graph Highway Networks [77.38665506495553]
グラフ畳み込みネットワーク(GCN)は、グラフ表現の有効性と効率性から、グラフ表現の学習に広く利用されている。
彼らは、多くの層が積み重ねられたとき、学習された表現が類似したベクトルに収束するという悪名高い過度に滑らかな問題に悩まされる。
本稿では,GCN学習プロセスにおける均一性と不均一性との間のトレードオフのバランスをとるため,ゲーティングユニットを利用したグラフハイウェイネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。