論文の概要: OrphicX: A Causality-Inspired Latent Variable Model for Interpreting
Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2203.15209v1
- Date: Tue, 29 Mar 2022 03:08:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 06:53:22.924624
- Title: OrphicX: A Causality-Inspired Latent Variable Model for Interpreting
Graph Neural Networks
- Title(参考訳): OrphicX:グラフニューラルネットワークを解釈するための因果性に着想を得た潜在変数モデル
- Authors: Wanyu Lin, Hao Lan, Hao Wang and Baochun Li
- Abstract要約: 本稿では、グラフニューラルネットワーク(GNN)の因果説明を生成するための新しいeXplanationフレームワークOrphicXを提案する。
本研究では, 個別な生成モデルを構築し, 因果的, コンパクト, 忠実な説明を生成モデルに推奨する目的関数を設計する。
OrphicXは因果的説明を生成するための因果的意味論を効果的に識別できることを示す。
- 参考スコア(独自算出の注目度): 42.539085765796976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a new eXplanation framework, called OrphicX, for
generating causal explanations for any graph neural networks (GNNs) based on
learned latent causal factors. Specifically, we construct a distinct generative
model and design an objective function that encourages the generative model to
produce causal, compact, and faithful explanations. This is achieved by
isolating the causal factors in the latent space of graphs by maximizing the
information flow measurements. We theoretically analyze the cause-effect
relationships in the proposed causal graph, identify node attributes as
confounders between graphs and GNN predictions, and circumvent such confounder
effect by leveraging the backdoor adjustment formula. Our framework is
compatible with any GNNs, and it does not require access to the process by
which the target GNN produces its predictions. In addition, it does not rely on
the linear-independence assumption of the explained features, nor require prior
knowledge on the graph learning tasks. We show a proof-of-concept of OrphicX on
canonical classification problems on graph data. In particular, we analyze the
explanatory subgraphs obtained from explanations for molecular graphs (i.e.,
Mutag) and quantitatively evaluate the explanation performance with frequently
occurring subgraph patterns. Empirically, we show that OrphicX can effectively
identify the causal semantics for generating causal explanations, significantly
outperforming its alternatives.
- Abstract(参考訳): 本稿では,学習遅延因果因子に基づくグラフニューラルネットワーク(GNN)の因果説明を生成するための,OrphicXと呼ばれる新しいeXplanationフレームワークを提案する。
具体的には、別個の生成モデルを構築し、生成モデルに因果的、コンパクトで忠実な説明を与える目的関数を設計する。
これは、情報フローの測定を最大化し、グラフの潜在空間における因果因子を分離することで達成される。
提案する因果グラフの因果関係を理論的に解析し,ノード属性をグラフとgnn予測の共起者として同定し,バックドア調整式を用いて共起効果を回避する。
我々のフレームワークは任意のGNNと互換性があり、ターゲットのGNNが予測を生成するプロセスにアクセスする必要はない。
さらに、説明されている特徴の線形独立性仮定に依存せず、グラフ学習タスクに関する事前知識も必要としない。
グラフデータ上の正準分類問題に対するOrphicXの概念実証を示す。
特に,分子グラフ(mutag)の説明から得られた説明サブグラフを分析し,頻発するサブグラフパターンを用いて説明性能を定量的に評価する。
実験により,OrphicXは因果的説明を生成するための因果的意味論を効果的に同定し,その代替案を著しく上回ることを示す。
関連論文リスト
- Heterophilic Graph Neural Networks Optimization with Causal Message-passing [24.796935814432892]
グラフニューラルネットワーク(GNN)における異種メッセージパッシングを因果推論を用いて捉える。
異種グラフ学習のための因果的メッセージパス探索ネットワークCausalMPを提案する。
論文 参考訳(メタデータ) (2024-11-21T03:59:07Z) - Towards Robust Fidelity for Evaluating Explainability of Graph Neural Networks [32.345435955298825]
グラフニューラルネットワーク(GNN)は、グラフノード間のメッセージパッシングを介してグラフィカルデータの依存性構造を利用するニューラルネットワークである。
GNN説明可能性の研究における主な課題は、これらの説明機能の性能を評価するための忠実度尺度を提供することである。
本稿では,この基礎的課題について考察し,その限界を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-03T06:25:14Z) - Structural Explanations for Graph Neural Networks using HSIC [21.929646888419914]
グラフニューラルネットワーク(GNN)は、グラフィカルなタスクをエンドツーエンドで処理するニューラルネットワークの一種である。
GNNの複雑なダイナミクスは、グラフの特徴のどの部分が予測に強く寄与しているかを理解するのを困難にしている。
本研究では,グラフ内の重要な構造を検出するために,フレキシブルモデルに依存しない説明法を提案する。
論文 参考訳(メタデータ) (2023-02-04T09:46:47Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。