論文の概要: On the Probability of Necessity and Sufficiency of Explaining Graph
Neural Networks: A Lower Bound Optimization Approach
- arxiv url: http://arxiv.org/abs/2212.07056v3
- Date: Fri, 27 Oct 2023 06:14:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 18:58:17.297406
- Title: On the Probability of Necessity and Sufficiency of Explaining Graph
Neural Networks: A Lower Bound Optimization Approach
- Title(参考訳): グラフニューラルネットワークを説明する必要性と十分性について--下限最適化アプローチ
- Authors: Ruichu Cai, Yuxuan Zhu, Xuexin Chen, Yuan Fang, Min Wu, Jie Qiao,
Zhifeng Hao
- Abstract要約: GNN(NSEG)のための必要・必要記述のためのフレームワークを提案する。
具体的には,GNNを構造因果モデル(SCM)として記述し,その確率を推定する。
実験の結果、NSEGは最先端の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 30.654856304938686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The explainability of Graph Neural Networks (GNNs) is critical to various GNN
applications, yet it remains a significant challenge. A convincing explanation
should be both necessary and sufficient simultaneously. However, existing GNN
explaining approaches focus on only one of the two aspects, necessity or
sufficiency, or a heuristic trade-off between the two. Theoretically, the
Probability of Necessity and Sufficiency (PNS) holds the potential to identify
the most necessary and sufficient explanation since it can mathematically
quantify the necessity and sufficiency of an explanation. Nevertheless, the
difficulty of obtaining PNS due to non-monotonicity and the challenge of
counterfactual estimation limit its wide use. To address the
non-identifiability of PNS, we resort to a lower bound of PNS that can be
optimized via counterfactual estimation, and propose a framework of Necessary
and Sufficient Explanation for GNN (NSEG) via optimizing that lower bound.
Specifically, we depict the GNN as a structural causal model (SCM), and
estimate the probability of counterfactual via the intervention under the SCM.
Additionally, we leverage continuous masks with a sampling strategy to optimize
the lower bound to enhance the scalability. Empirical results demonstrate that
NSEG outperforms state-of-the-art methods, consistently generating the most
necessary and sufficient explanations.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の説明可能性は、さまざまなGNNアプリケーションに不可欠だが、それでも大きな課題である。
説得力のある説明は必要かつ十分同時に行うべきである。
しかし、既存のGNNの説明アプローチは2つの側面のうちの1つにのみ焦点を当てている。
理論的には、必要十分性確率(pns)は、説明の必要性と十分性を数学的に定量化できるため、最も必要かつ十分な説明を特定する可能性を持っている。
それにもかかわらず、非単調性によるpns獲得の困難さと反事実的推定の難しさは幅広い使用範囲を制限している。
PNSの非識別性に対処するために、我々は、逆ファクト推定によって最適化できる低域のPNSを活用し、その低域を最適化することで、GNN(NSEG)のための必要十分かつ十分記述する枠組みを提案する。
具体的には、GNNを構造因果モデル(Structuor causal model, SCM)として記述し、SCMの下での介入により、対実の確率を推定する。
さらに,低バウンダリを最適化してスケーラビリティを向上させるために,サンプリング戦略による連続マスクを活用する。
実験の結果、nsegは最先端の手法よりも優れており、一貫して必要かつ十分な説明を生み出している。
関連論文リスト
- xAI-Drop: Don't Use What You Cannot Explain [23.33477769275026]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための主要なパラダイムとして登場した。
GNNは、一般化の欠如や解釈可能性の低下といった課題に直面している。
トポロジカルレベル降下正則化器であるxAI-Dropを導入する。
論文 参考訳(メタデータ) (2024-07-29T14:53:45Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Analysis of Graph Neural Networks with Theory of Markov Chains [2.017675281820044]
我々は,GNN研究において重要な問題であるエンフェーバー平滑化について研究する。
演算子一貫性GNNはマルコフ的意味で指数速度で過度に平滑化を回避できないという結論を下す。
ニューラルネットワークのトレーニングに柔軟に追加できる正規化項を提案する。
論文 参考訳(メタデータ) (2022-11-12T08:03:57Z) - MGNNI: Multiscale Graph Neural Networks with Implicit Layers [53.75421430520501]
暗黙グラフニューラルネットワーク(GNN)は、基礎となるグラフの長距離依存性をキャプチャするために提案されている。
暗黙的GNNの2つの弱点は、長距離依存を捉えるための限られた有効範囲による制約付き表現性と、複数の解像度でグラフ上のマルチスケール情報をキャプチャする能力の欠如である。
グラフ上のマルチスケール構造をモデル化できる暗黙の層(MGNNI)を持つマルチスケールグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-15T18:18:55Z) - GraphFramEx: Towards Systematic Evaluation of Explainability Methods for Graph Neural Networks [15.648750523827616]
3つの異なる「ユーザニーズ」に対する説明可能性を考慮したGNN説明可能性のための最初の体系的評価フレームワークを提案する。
不適切なが広く使われている合成ベンチマークでは、パーソナライズされたPageRankのような驚くほど浅いテクニックが最小限の計算時間で最高のパフォーマンスを持つ。
しかし,グラフ構造が複雑で有意義な特徴を持つ場合,評価基準に従って勾配法が最適である。
論文 参考訳(メタデータ) (2022-06-20T09:33:12Z) - ResNorm: Tackling Long-tailed Degree Distribution Issue in Graph Neural
Networks via Normalization [80.90206641975375]
本稿では,正規化によるGNNの性能向上に焦点をあてる。
グラフ中のノード次数の長期分布を調べることにより、GNNの新しい正規化法を提案する。
ResNormの$scale$操作は、尾ノードの精度を向上させるために、ノード単位の標準偏差(NStd)分布を再設定する。
論文 参考訳(メタデータ) (2022-06-16T13:49:09Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - SEEN: Sharpening Explanations for Graph Neural Networks using
Explanations from Neighborhoods [0.0]
本稿では,補助的説明の集約によるノード分類タスクの説明品質の向上手法を提案する。
SEENを適用するにはグラフを変更する必要はなく、さまざまな説明可能性のテクニックで使用することができる。
与えられたグラフからモチーフ参加ノードをマッチングする実験では、説明精度が最大12.71%向上した。
論文 参考訳(メタデータ) (2021-06-16T03:04:46Z) - Explainability in Graph Neural Networks: A Taxonomic Survey [42.95574260417341]
グラフニューラルネットワーク(gnns)とその説明能力は急速に発展している。
GNNの説明可能性メソッドの統一された処理も、評価のための標準的なベンチマークとテストベッドもありません。
本研究はgnn説明可能性の統一的な方法論的処理と評価のための標準テストベッドを提供する。
論文 参考訳(メタデータ) (2020-12-31T04:34:27Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z) - Efficient Probabilistic Logic Reasoning with Graph Neural Networks [63.099999467118245]
マルコフ論理ネットワーク(MLN)は、多くの知識グラフ問題に対処するために用いられる。
MLNの推論は計算集約的であり、MLNの産業規模での応用は非常に困難である。
本稿では,表現力とモデルの単純さとのバランスのよいグラフニューラルネット(GNN)モデルであるExpressGNNを提案する。
論文 参考訳(メタデータ) (2020-01-29T23:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。