論文の概要: Learning and Evaluating Graph Neural Network Explanations based on
Counterfactual and Factual Reasoning
- arxiv url: http://arxiv.org/abs/2202.08816v1
- Date: Thu, 17 Feb 2022 18:30:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 16:39:09.188752
- Title: Learning and Evaluating Graph Neural Network Explanations based on
Counterfactual and Factual Reasoning
- Title(参考訳): 反事実推論と事実推論に基づくグラフニューラルネットワーク説明の学習と評価
- Authors: Juntao Tan, Shijie Geng, Zuohui Fu, Yingqiang Ge, Shuyuan Xu, Yunqi
Li, Yongfeng Zhang
- Abstract要約: グラフニューラルネットワーク(GNN)は、構造データに対する学習表現に大きな利点を示している。
本稿では、因果推論理論から推論した対実的・実的(CF2)の知見を取り入れ、学習と評価の両問題を解き明かす。
基礎構造を必要とせずに生成した説明を定量的に評価するために,実測値と実測値に基づいてメトリクスを設計する。
- 参考スコア(独自算出の注目度): 46.20269166675735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structural data well exists in Web applications, such as social networks in
social media, citation networks in academic websites, and threads data in
online forums. Due to the complex topology, it is difficult to process and make
use of the rich information within such data. Graph Neural Networks (GNNs) have
shown great advantages on learning representations for structural data.
However, the non-transparency of the deep learning models makes it non-trivial
to explain and interpret the predictions made by GNNs. Meanwhile, it is also a
big challenge to evaluate the GNN explanations, since in many cases, the
ground-truth explanations are unavailable.
In this paper, we take insights of Counterfactual and Factual (CF^2)
reasoning from causal inference theory, to solve both the learning and
evaluation problems in explainable GNNs. For generating explanations, we
propose a model-agnostic framework by formulating an optimization problem based
on both of the two casual perspectives. This distinguishes CF^2 from previous
explainable GNNs that only consider one of them. Another contribution of the
work is the evaluation of GNN explanations. For quantitatively evaluating the
generated explanations without the requirement of ground-truth, we design
metrics based on Counterfactual and Factual reasoning to evaluate the necessity
and sufficiency of the explanations. Experiments show that no matter
ground-truth explanations are available or not, CF^2 generates better
explanations than previous state-of-the-art methods on real-world datasets.
Moreover, the statistic analysis justifies the correlation between the
performance on ground-truth evaluation and our proposed metrics.
- Abstract(参考訳): 構造化データは、ソーシャルメディアのソーシャルネットワーク、学術ウェブサイトの引用ネットワーク、オンラインフォーラムのスレッドデータなど、Webアプリケーションによく存在する。
複雑なトポロジーのため、そのようなデータ内のリッチな情報を処理し利用することは困難である。
グラフニューラルネットワーク(GNN)は、構造データに対する学習表現に大きな利点を示している。
しかし、ディープラーニングモデルの非透明性は、GNNによる予測を説明・解釈するのは簡単ではない。
一方、GNNの説明を評価することは大きな課題であり、多くの場合、真理的な説明は利用できない。
本稿では、因果推論理論に基づくCF^2推論の考察を行い、説明可能なGNNにおける学習と評価の両問題を解く。
本稿では,2つのカジュアルな視点から最適化問題を定式化するモデルに依存しないフレームワークを提案する。
これにより、cf^2 は以前の説明可能な gnn と区別される。
この研究のもうひとつの貢献は、GNN説明の評価である。
根拠を必要とせず, 生成した説明を定量的に評価するために, 説明の必要性と十分性を評価するために, 反事実的, 事実的推論に基づく指標を設計する。
CF^2は, 実世界のデータセットにおける従来の最先端の手法よりも, より優れた説明を生成する。
さらに, 統計的解析により, 実測値と実測値との相関関係を正当化する。
関連論文リスト
- Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks [12.892400744247565]
我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-07T09:57:39Z) - Towards Robust Fidelity for Evaluating Explainability of Graph Neural Networks [32.345435955298825]
グラフニューラルネットワーク(GNN)は、グラフノード間のメッセージパッシングを介してグラフィカルデータの依存性構造を利用するニューラルネットワークである。
GNN説明可能性の研究における主な課題は、これらの説明機能の性能を評価するための忠実度尺度を提供することである。
本稿では,この基礎的課題について考察し,その限界を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-03T06:25:14Z) - Toward Multiple Specialty Learners for Explaining GNNs via Online
Knowledge Distillation [0.17842332554022688]
グラフニューラルネットワーク(GNN)は、多くのアプリケーションやシステムにおいてますます普及し、それらの予測を説明する必要がある。
そこで我々はSCALEという新しいGNN説明フレームワークを提案する。
トレーニングにおいて、ブラックボックスGNNモデルは、オンライン知識蒸留パラダイムに基づいて学習者をガイドする。
具体的には、エッジマスキングと再起動手順によるランダムウォークを実行し、グラフレベルとノードレベルの予測の構造的説明を提供する。
論文 参考訳(メタデータ) (2022-10-20T08:44:57Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Generative Causal Explanations for Graph Neural Networks [39.60333255875979]
Gemは、さまざまなグラフ学習タスクで任意のGNNに対して解釈可能な説明を提供するモデルに依存しないアプローチです。
説明精度の相対的な向上を最大30%$で達成し、その最先端の代替品と比較して、説明プロセスを最大$ 10times $でスピードアップします。
論文 参考訳(メタデータ) (2021-04-14T06:22:21Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。