論文の概要: Shapley-Value-Based Graph Sparsification for GNN Inference
- arxiv url: http://arxiv.org/abs/2507.20460v1
- Date: Mon, 28 Jul 2025 01:30:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.766342
- Title: Shapley-Value-Based Graph Sparsification for GNN Inference
- Title(参考訳): GNN推論のためのシェープ値に基づくグラフスカラー化
- Authors: Selahattin Akkas, Ariful Azad,
- Abstract要約: グラフスペーシフィケーション(Graph Sparsification)は、グラフニューラルネットワークの推論効率を改善する技術である。
共有値に基づく手法は、ノード予測に対する正と負の両方の寄与を割り当てる。
提案手法は,Shapley値に基づくグラフスペーシフィケーションが,グラフの複雑性を著しく低減しつつ予測性能を維持することを示す。
- 参考スコア(独自算出の注目度): 1.5998912722142724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph sparsification is a key technique for improving inference efficiency in Graph Neural Networks by removing edges with minimal impact on predictions. GNN explainability methods generate local importance scores, which can be aggregated into global scores for graph sparsification. However, many explainability methods produce only non-negative scores, limiting their applicability for sparsification. In contrast, Shapley value based methods assign both positive and negative contributions to node predictions, offering a theoretically robust and fair allocation of importance by evaluating many subsets of graphs. Unlike gradient-based or perturbation-based explainers, Shapley values enable better pruning strategies that preserve influential edges while removing misleading or adversarial connections. Our approach shows that Shapley value-based graph sparsification maintains predictive performance while significantly reducing graph complexity, enhancing both interpretability and efficiency in GNN inference.
- Abstract(参考訳): グラフスペーシフィケーション(Graph Sparsification)は、予測に最小限の影響でエッジを削除することにより、グラフニューラルネットワークの推論効率を改善するための重要なテクニックである。
GNN説明可能性法は局所的な重要度スコアを生成し、グラフスカラー化のためにグローバルスコアに集約することができる。
しかし、多くの説明可能性法は非負のスコアしか生成せず、スパーシフィケーションの適用性を制限している。
対照的に、Shapley値に基づく手法は、ノード予測に対する正と負の両方の寄与を割り当て、グラフの多くの部分集合を評価することによって、理論的に堅牢で公平な重要性の割り当てを提供する。
勾配に基づく説明や摂動に基づく説明とは異なり、Shapleyの値は、誤った導出や敵対的なつながりを取り除きながら、影響力のあるエッジを保存するより良いプルーニング戦略を可能にする。
提案手法により,Shapley値に基づくグラフスペーシフィケーションは,グラフの複雑さを著しく低減し,GNN推論における解釈可能性と効率性の向上を図っている。
関連論文リスト
- Shapley-Guided Utility Learning for Effective Graph Inference Data Valuation [6.542796128290513]
本稿では,グラフ推論データ評価の新しいフレームワークであるShapley-Guided Utility Learning (SGUL)を提案する。
SGULは、転送可能なデータ特化機能とモデル特化機能を組み合わせて、地上の真理ラベルに頼ることなく、テスト精度を近似する。
SGULは、インダクティブ設定とトランスダクティブ設定の両方において、既存のベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2025-03-23T20:35:03Z) - A Signed Graph Approach to Understanding and Mitigating Oversmoothing in GNNs [54.62268052283014]
署名されたグラフの枠組みに基づく統一的な理論的視点を示す。
既存の戦略の多くは、メッセージパッシングを変えて過度な操作に抵抗する負のエッジを暗黙的に導入している。
本稿では,ラベルや特徴の類似性に基づいて署名されたエッジを割り当てるプラグイン・アンド・プレイ方式であるStructure Balanced Propagation (SBP)を提案する。
論文 参考訳(メタデータ) (2025-02-17T03:25:36Z) - Improving the interpretability of GNN predictions through conformal-based graph sparsification [9.550589670316523]
グラフニューラルネットワーク(GNN)は、グラフ分類タスクの解決において最先端のパフォーマンスを達成した。
エッジやノードを除去することで,最も予測可能なサブグラフを見つけるGNNエンハンチング手法を提案する。
我々は、共形予測に基づく報奨関数で得られる二段階最適化を解決するために強化学習を頼りにしている。
論文 参考訳(メタデータ) (2024-04-18T17:34:47Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Implicit vs Unfolded Graph Neural Networks [29.803948965931212]
暗黙的かつ展開的なGNNは、異なる規則間で強いノード分類精度が得られることを示す。
IGNNはメモリ効率がかなり高いが、UGNNモデルはユニークで統合されたグラフアテンション機構と伝搬規則をサポートしている。
論文 参考訳(メタデータ) (2021-11-12T07:49:16Z) - Scaling Up Graph Neural Networks Via Graph Coarsening [18.176326897605225]
グラフニューラルネットワーク(GNN)のスケーラビリティは、マシンラーニングにおける大きな課題のひとつだ。
本稿では,GNNのスケーラブルなトレーニングにグラフ粗大化を用いることを提案する。
既成の粗大化法を単純に適用すれば,分類精度を著しく低下させることなく,ノード数を最大10倍に削減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T15:46:17Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。