論文の概要: GNNShap: Scalable and Accurate GNN Explanation using Shapley Values
- arxiv url: http://arxiv.org/abs/2401.04829v3
- Date: Fri, 23 Feb 2024 15:49:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 11:51:19.621380
- Title: GNNShap: Scalable and Accurate GNN Explanation using Shapley Values
- Title(参考訳): GNNShap: シェープ値を用いたスケーラブルで正確なGNN説明
- Authors: Selahattin Akkas and Ariful Azad
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフのマシンラーニングモデルとして人気がある。
モデルをどのように予測するかを理解するのは難しい。
ゲーム理論のシェープ値アプローチは、他の領域で一般的な説明法であるが、グラフに対しては十分に研究されていない。
- 参考スコア(独自算出の注目度): 1.8900595979721027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) are popular machine learning models for graphs
with many applications across scientific domains. However, GNNs are considered
black box models, and it is challenging to understand how the model makes
predictions. Game theoric Shapley value approaches are popular explanation
methods in other domains but are not well-studied for graphs. Some studies have
proposed Shapley value based GNN explanations, yet they have several
limitations: they consider limited samples to approximate Shapley values; some
mainly focus on small and large coalition sizes, and they are an order of
magnitude slower than other explanation methods, making them inapplicable to
even moderate-size graphs. In this work, we propose GNNShap, which provides
explanations for edges since they provide more natural explanations for graphs
and more fine-grained explanations. We overcome the limitations by sampling
from all coalition sizes, parallelizing the sampling on GPUs, and speeding up
model predictions by batching. GNNShap gives better fidelity scores and faster
explanations than baselines on real-world datasets. The code is available at
https://github.com/HipGraph/GNNShap.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、科学領域にまたがる多くの応用を持つグラフのための一般的な機械学習モデルである。
しかし、GNNはブラックボックスモデルと考えられており、モデルがどのように予測を行うかを理解するのは難しい。
game theoric shapley value approachは、他の領域での一般的な説明方法であるが、グラフについてはよく研究されていない。
シャプリー値に基づくgnnの説明を提唱する研究もあるが、いくつかの制限がある: シャプリー値の近似に限定されたサンプルを考える; 主に小さな結合サイズと大きな結合サイズに焦点を当てる; それらは他の説明法よりも桁違いに遅く、中程度のグラフにも適用できない。
本稿では,グラフの自然な説明や細かな説明を提供するため,エッジの説明を提供するgnnshapを提案する。
この制限を克服するために,すべての結合サイズからサンプリングし,gpu上でサンプリングを並列化し,バッチ処理によるモデル予測を高速化する。
GNNShapは、実世界のデータセットのベースラインよりも優れた忠実度スコアと高速な説明を提供する。
コードはhttps://github.com/HipGraph/GNNShapで公開されている。
関連論文リスト
- Global Graph Counterfactual Explanation: A Subgraph Mapping Approach [54.42907350881448]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
論文 参考訳(メタデータ) (2024-10-25T21:39:05Z) - Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Global Counterfactual Explainer for Graph Neural Networks [8.243944711755617]
グラフニューラルネットワーク(GNN)は、計算生物学、自然言語処理、コンピュータセキュリティなど、さまざまな分野に応用されている。
GNNはブラックボックス機械学習モデルであるため、GNNの予測を説明する必要性が高まっている。
既存のGNNの非現実的説明法は、インスタンス固有の局所的推論に限られる。
論文 参考訳(メタデータ) (2022-10-21T02:46:35Z) - GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks [25.94529851210956]
本稿では,異なるグラフニューラルネットワーク(GNN)に対して,メッセージパッシング方式であるGNNInterpreterに従うモデルに依存しないモデルレベルの説明手法を提案する。
GNNInterpreterは、GNNが検出しようとする最も識別性の高いグラフパターンを生成する確率的生成グラフ分布を学習する。
既存の研究と比較すると、GNNInterpreterはノードとエッジの異なるタイプの説明グラフを生成する際に、より柔軟で計算的に効率的である。
論文 参考訳(メタデータ) (2022-09-15T07:45:35Z) - Neo-GNNs: Neighborhood Overlap-aware Graph Neural Networks for Link
Prediction [23.545059901853815]
グラフニューラルネットワーク(GNN)は,グラフ構造データの学習に広く応用されている。
リンク予測のために隣接重畳された近傍から有用な構造特徴を学習する近傍オーバーラップ対応グラフニューラルネットワーク(Neo-GNN)を提案する。
論文 参考訳(メタデータ) (2022-06-09T01:43:49Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。