論文の概要: Quantifying Explanation Quality in Graph Neural Networks using Out-of-Distribution Generalization
- arxiv url: http://arxiv.org/abs/2602.07708v1
- Date: Sat, 07 Feb 2026 21:27:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.768197
- Title: Quantifying Explanation Quality in Graph Neural Networks using Out-of-Distribution Generalization
- Title(参考訳): Out-of-Distribution Generalization を用いたグラフニューラルネットワークにおける説明品質の定量化
- Authors: Ding Zhang, Siddharth Betala, Chirag Agarwal,
- Abstract要約: 説明一般化スコア(英: Explanation-Generalization Score、EGS)は、GNNの説明の因果関係を定量化する計量である。
EGSは、因果サブストラクチャをキャプチャする能力に基づいて、説明書のランク付けのための原則化されたベンチマークを提供する。
- 参考スコア(独自算出の注目度): 16.976099446166085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluating the quality of post-hoc explanations for Graph Neural Networks (GNNs) remains a significant challenge. While recent years have seen an increasing development of explainability methods, current evaluation metrics (e.g., fidelity, sparsity) often fail to assess whether an explanation identifies the true underlying causal variables. To address this, we propose the Explanation-Generalization Score (EGS), a metric that quantifies the causal relevance of GNN explanations. EGS is founded on the principle of feature invariance and posits that if an explanation captures true causal drivers, it should lead to stable predictions across distribution shifts. To quantify this, we introduce a framework that trains GNNs using explanatory subgraphs and evaluates their performance in Out-of-Distribution (OOD) settings (here, OOD generalization serves as a rigorous proxy for the explanation's causal validity). Through large-scale validation involving 11,200 model combinations across synthetic and real-world datasets, our results demonstrate that EGS provides a principled benchmark for ranking explainers based on their ability to capture causal substructures, offering a robust alternative to traditional fidelity-based metrics.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)のポストホックな説明の質を評価することは、依然として大きな課題である。
近年、説明可能性法が発展してきたが、現在の評価基準(例えば、忠実度、疎度)は、説明が真の根底にある因果変数を識別するかどうかを評価するのに失敗することが多い。
そこで本研究では,GNN 説明の因果関係を定量化する指標である Explanation-Generalization Score (EGS) を提案する。
EGSは特徴不変性の原理に基づいて構築されており、説明が真の因果的ドライバを捉えると、分布シフトをまたいだ安定した予測につながると仮定している。
これの定量化のために,説明文を用いてGNNを訓練し,アウト・オブ・ディストリビューション(OOD)設定でその性能を評価するフレームワークを導入する(OODの一般化は説明の因果妥当性の厳密なプロキシとして機能する)。
EGSは、合成データセットと実世界のデータセットをまたいだ11,200のモデル組み合わせを含む大規模な検証を通じて、因果的サブストラクチャをキャプチャする能力に基づいて、基準付きベンチマークを提供し、従来のフィデリティベースのメトリクスに代わる堅牢な代替手段を提供することを示した。
関連論文リスト
- Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Towards Robust Fidelity for Evaluating Explainability of Graph Neural Networks [32.345435955298825]
グラフニューラルネットワーク(GNN)は、グラフノード間のメッセージパッシングを介してグラフィカルデータの依存性構造を利用するニューラルネットワークである。
GNN説明可能性の研究における主な課題は、これらの説明機能の性能を評価するための忠実度尺度を提供することである。
本稿では,この基礎的課題について考察し,その限界を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-03T06:25:14Z) - Faithful and Consistent Graph Neural Network Explanations with Rationale
Alignment [38.66324833510402]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案され、その多くは、元の予測を保存できる最小限のサブグラフを探索することで、このタスクを形式化する。
いくつかの部分グラフは元のグラフと同じもしくは類似した出力をもたらす。
弱いパフォーマンスのGNNを説明するためにそれらを適用することは、これらの問題をさらに増幅する。
論文 参考訳(メタデータ) (2023-01-07T06:33:35Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - SEEN: Sharpening Explanations for Graph Neural Networks using
Explanations from Neighborhoods [0.0]
本稿では,補助的説明の集約によるノード分類タスクの説明品質の向上手法を提案する。
SEENを適用するにはグラフを変更する必要はなく、さまざまな説明可能性のテクニックで使用することができる。
与えられたグラフからモチーフ参加ノードをマッチングする実験では、説明精度が最大12.71%向上した。
論文 参考訳(メタデータ) (2021-06-16T03:04:46Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。