論文の概要: GISExplainer: On Explainability of Graph Neural Networks via Game-theoretic Interaction Subgraphs
- arxiv url: http://arxiv.org/abs/2409.15698v2
- Date: Mon, 30 Dec 2024 13:28:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:00:00.847158
- Title: GISExplainer: On Explainability of Graph Neural Networks via Game-theoretic Interaction Subgraphs
- Title(参考訳): GISExplainer:ゲーム理論インタラクショングラフによるグラフニューラルネットワークの説明可能性について
- Authors: Xingping Xian, Jianlu Liu, Chao Wang, Tao Wu, Shaojie Qiao, Xiaochuan Tang, Qun Liu,
- Abstract要約: GISExplainerはゲーム理論の相互作用に基づく説明手法である。
これは、GNNがノード分類のために学んだことを明らかにする。
GISExplainerは最先端のアプローチよりも優れたパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 21.012180171806456
- License:
- Abstract: Explainability is crucial for the application of black-box Graph Neural Networks (GNNs) in critical fields such as healthcare, finance, cybersecurity, and more. Various feature attribution methods, especially the perturbation-based methods, have been proposed to indicate how much each node/edge contributes to the model predictions. However, these methods fail to generate connected explanatory subgraphs that consider the causal interaction between edges within different coalition scales, which will result in unfaithful explanations. In our study, we propose GISExplainer, a novel game-theoretic interaction based explanation method that uncovers what the underlying GNNs have learned for node classification by discovering human-interpretable causal explanatory subgraphs. First, GISExplainer defines a causal attribution mechanism that considers the game-theoretic interaction of multi-granularity coalitions in candidate explanatory subgraph to quantify the causal effect of an edge on the prediction. Second, GISExplainer assumes that the coalitions with negative effects on the predictions are also significant for model interpretation, and the contribution of the computation graph stems from the combined influence of both positive and negative interactions within the coalitions. Then, GISExplainer regards the explanation task as a sequential decision process, in which a salient edges is successively selected and connected to the previously selected subgraph based on its causal effect to form an explanatory subgraph, ultimately striving for better explanations. Additionally, an efficiency optimization scheme is proposed for the causal attribution mechanism through coalition sampling. Extensive experiments demonstrate that GISExplainer achieves better performance than state-of-the-art approaches w.r.t. two quantitative metrics: Fidelity and Sparsity.
- Abstract(参考訳): 医療、金融、サイバーセキュリティなど、重要な分野におけるブラックボックスグラフニューラルネットワーク(GNN)の適用には、説明責任が不可欠である。
様々な特徴属性法,特に摂動に基づく手法は,各ノード/エッジがモデル予測にどの程度寄与するかを示すために提案されている。
しかしながら、これらの手法は、異なる連立スケール内のエッジ間の因果的相互作用を考慮し、不信な説明をもたらす連結説明部分グラフを生成することに失敗する。
そこで本研究では,GNNがノード分類で学んだことを,人間の解釈可能な因果説明部分グラフによって明らかにする,新たなゲーム理論に基づく説明手法であるGISExplainerを提案する。
まず、GISExplainerは、予測に対するエッジの因果効果を定量化するために、候補説明部分グラフにおける多粒度連立のゲーム理論的相互作用を考慮した因果帰属機構を定義する。
第二に、GISExplainerは、予測に対する負の影響のある連立関係もモデル解釈に重要であると仮定し、計算グラフの寄与は、連立関係における正と負の相互作用の組合せの影響に由来する。
そして、GISExplainerは、説明課題をシーケンシャルな決定プロセスとみなし、その因果効果に基づいて、サリアントエッジを順次選択し、予め選択したサブグラフに接続し、説明的なサブグラフを形成し、最終的にはより良い説明を求めて努力する。
さらに、連立サンプリングによる因果帰属機構の効率最適化手法を提案する。
大規模な実験では、GISExplainerは2つの定量的メトリクスであるフィデリティとスパーシティよりも優れたパフォーマンスを実現している。
関連論文リスト
- Oversmoothing as Loss of Sign: Towards Structural Balance in Graph Neural Networks [54.62268052283014]
オーバースムーシングはグラフニューラルネットワーク(GNN)において一般的な問題である
反過剰化手法の3つの主要なクラスは、数学的に符号付きグラフ上のメッセージパッシングと解釈できる。
負のエッジはノードをある程度撃退することができ、これらのメソッドが過剰なスムースを緩和する方法に関する深い洞察を提供する。
論文 参考訳(メタデータ) (2025-02-17T03:25:36Z) - Towards Fine-Grained Explainability for Heterogeneous Graph Neural
Network [20.86967051637891]
不均一グラフニューラルネットワーク(HGN)は、不均一グラフ上のノード分類タスクに対する顕著なアプローチである。
既存の説明可能性技術は主に同質グラフ上のGNNに対して提案されている。
我々は,ブラックボックスHGNの詳細な説明を提供する新しいフレームワークであるxPathを開発した。
論文 参考訳(メタデータ) (2023-12-23T12:13:23Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Faithful and Consistent Graph Neural Network Explanations with Rationale
Alignment [38.66324833510402]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案され、その多くは、元の予測を保存できる最小限のサブグラフを探索することで、このタスクを形式化する。
いくつかの部分グラフは元のグラフと同じもしくは類似した出力をもたらす。
弱いパフォーマンスのGNNを説明するためにそれらを適用することは、これらの問題をさらに増幅する。
論文 参考訳(メタデータ) (2023-01-07T06:33:35Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - OrphicX: A Causality-Inspired Latent Variable Model for Interpreting
Graph Neural Networks [42.539085765796976]
本稿では、グラフニューラルネットワーク(GNN)の因果説明を生成するための新しいeXplanationフレームワークOrphicXを提案する。
本研究では, 個別な生成モデルを構築し, 因果的, コンパクト, 忠実な説明を生成モデルに推奨する目的関数を設計する。
OrphicXは因果的説明を生成するための因果的意味論を効果的に識別できることを示す。
論文 参考訳(メタデータ) (2022-03-29T03:08:33Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。