論文の概要: Deconfounding to Explanation Evaluation in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2201.08802v1
- Date: Fri, 21 Jan 2022 18:05:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 14:23:10.386791
- Title: Deconfounding to Explanation Evaluation in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおける解法と説明評価
- Authors: Ying-Xin (Shirley) Wu, Xiang Wang, An Zhang, Xia Hu, Fuli Feng,
Xiangnan He, Tat-Seng Chua
- Abstract要約: 我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
- 参考スコア(独自算出の注目度): 136.73451468551656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability of graph neural networks (GNNs) aims to answer ``Why the GNN
made a certain prediction?'', which is crucial to interpret the model
prediction. The feature attribution framework distributes a GNN's prediction to
its input features (e.g., edges), identifying an influential subgraph as the
explanation. When evaluating the explanation (i.e., subgraph importance), a
standard way is to audit the model prediction based on the subgraph solely.
However, we argue that a distribution shift exists between the full graph and
the subgraph, causing the out-of-distribution problem. Furthermore, with an
in-depth causal analysis, we find the OOD effect acts as the confounder, which
brings spurious associations between the subgraph importance and model
prediction, making the evaluation less reliable. In this work, we propose
Deconfounded Subgraph Evaluation (DSE) which assesses the causal effect of an
explanatory subgraph on the model prediction. While the distribution shift is
generally intractable, we employ the front-door adjustment and introduce a
surrogate variable of the subgraphs. Specifically, we devise a generative model
to generate the plausible surrogates that conform to the data distribution,
thus approaching the unbiased estimation of subgraph importance. Empirical
results demonstrate the effectiveness of DSE in terms of explanation fidelity.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の説明可能性(説明可能性)は,モデル予測の解釈に不可欠である‘なぜGNNが特定の予測を行ったのか’に答えることを目的としている。
特徴属性フレームワークは、GNNの予測を入力特徴(エッジなど)に分散し、影響力のある部分グラフを説明として識別する。
説明(すなわち、サブグラフの重要性)を評価する場合、標準的な方法は、サブグラフのみに基づいてモデル予測を監査することである。
しかし、全グラフと部分グラフの間に分布シフトが存在し、分散問題を引き起こすと論じている。
さらに, 深い因果分析により, ood効果が共起体として作用し, サブグラフの重要性とモデル予測との相関性が高まり, 評価の信頼性が低下することが明らかとなった。
本研究では,モデル予測に対する説明文の因果的影響を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
分布シフトは一般に難易度が高いが,正面調整を採用し,部分グラフの代理変数を導入する。
具体的には、データ分布に適合するプラウチブル・サロゲートを生成するための生成モデルを考案し、不偏な部分グラフの重要度推定にアプローチする。
実験結果からDSEの有効性が示唆された。
関連論文リスト
- Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Faithful and Consistent Graph Neural Network Explanations with Rationale
Alignment [38.66324833510402]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案され、その多くは、元の予測を保存できる最小限のサブグラフを探索することで、このタスクを形式化する。
いくつかの部分グラフは元のグラフと同じもしくは類似した出力をもたらす。
弱いパフォーマンスのGNNを説明するためにそれらを適用することは、これらの問題をさらに増幅する。
論文 参考訳(メタデータ) (2023-01-07T06:33:35Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - OrphicX: A Causality-Inspired Latent Variable Model for Interpreting
Graph Neural Networks [42.539085765796976]
本稿では、グラフニューラルネットワーク(GNN)の因果説明を生成するための新しいeXplanationフレームワークOrphicXを提案する。
本研究では, 個別な生成モデルを構築し, 因果的, コンパクト, 忠実な説明を生成モデルに推奨する目的関数を設計する。
OrphicXは因果的説明を生成するための因果的意味論を効果的に識別できることを示す。
論文 参考訳(メタデータ) (2022-03-29T03:08:33Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Towards the Explanation of Graph Neural Networks in Digital Pathology
with Information Flows [67.23405590815602]
グラフニューラルネットワーク(GNN)は、デジタル病理学において広く採用されている。
既存の説明者は、予測に関連する説明的部分グラフを発見する。
説明文は、予測に必要であるだけでなく、最も予測可能な領域を明らかにするのに十分である。
本稿では, IFEXPLAINERを提案する。
論文 参考訳(メタデータ) (2021-12-18T10:19:01Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。