論文の概要: Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2402.04710v1
- Date: Wed, 7 Feb 2024 09:57:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 15:49:08.069835
- Title: Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks
- Title(参考訳): 解釈可能なグラフニューラルネットワークのための情報ボトルネックを用いた検索に基づく因果学習
- Authors: Jiahua Rao, Jiancong Xie, Hanjing Lin, Shuangjia Zheng, Zhen Wang,
Yuedong Yang
- Abstract要約: 我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
- 参考スコア(独自算出の注目度): 12.892400744247565
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph Neural Networks (GNNs) have gained considerable traction for their
capability to effectively process topological data, yet their interpretability
remains a critical concern. Current interpretation methods are dominated by
post-hoc explanations to provide a transparent and intuitive understanding of
GNNs. However, they have limited performance in interpreting complicated
subgraphs and can't utilize the explanation to advance GNN predictions. On the
other hand, transparent GNN models are proposed to capture critical subgraphs.
While such methods could improve GNN predictions, they usually don't perform
well on explanations. Thus, it is desired for a new strategy to better couple
GNN explanation and prediction. In this study, we have developed a novel
interpretable causal GNN framework that incorporates retrieval-based causal
learning with Graph Information Bottleneck (GIB) theory. The framework could
semi-parametrically retrieve crucial subgraphs detected by GIB and compress the
explanatory subgraphs via a causal module. The framework was demonstrated to
consistently outperform state-of-the-art methods, and to achieve 32.71\% higher
precision on real-world explanation scenarios with diverse explanation types.
More importantly, the learned explanations were shown able to also improve GNN
prediction performance.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、トポロジデータを効果的に処理する能力でかなりの注目を集めているが、その解釈性は依然として重要な関心事である。
現在の解釈法は、gnnの透明で直感的な理解を提供するため、ポストホックな説明によって支配されている。
しかし、複雑な部分グラフの解釈性能は限られており、その説明をGNN予測の前進に利用できない。
一方、重要な部分グラフを捉えるために透明なGNNモデルが提案されている。
このような手法はGNNの予測を改善できるが、通常は説明ではうまく機能しない。
したがって、GNNの説明と予測をよりうまく組み合わせる新たな戦略が望まれる。
本研究では,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
このフレームワークは、gibによって検出された重要なサブグラフを半パラメトリックに取得し、説明可能なサブグラフを因果モジュールを介して圧縮することができる。
このフレームワークは最先端の手法を一貫して上回り、様々な説明タイプを持つ実世界の説明シナリオにおいて32.71\%高い精度を達成することが実証された。
さらに重要なことは、学習した説明により、GNN予測性能も改善できることである。
関連論文リスト
- Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Towards Prototype-Based Self-Explainable Graph Neural Network [37.90997236795843]
本稿では,プロトタイプベースの自己説明可能なGNNを学習し,正確な予測とプロトタイプベースの予測説明を同時に行うという,新たな課題について考察する。
学習したプロトタイプは、テストインスタンスの予測とインスタンスレベルの説明を同時に行うためにも使用される。
論文 参考訳(メタデータ) (2022-10-05T00:47:42Z) - Explainability in subgraphs-enhanced Graph Neural Networks [12.526174412246107]
グラフ強化グラフニューラルネットワーク(SGNN)は,GNNの表現力を高めるために導入された。
本稿では, GNN の最近の解説者の一つである PGExplainer を SGNN に適用する。
本稿では,グラフ分類タスクにおけるSGNNの決定過程を説明することに成功していることを示す。
論文 参考訳(メタデータ) (2022-09-16T13:39:10Z) - A Survey of Explainable Graph Neural Networks: Taxonomy and Evaluation
Metrics [8.795591344648294]
本稿では,説明可能なグラフニューラルネットワークに着目し,説明可能な手法を用いて分類する。
我々は,GNNの解説に共通する性能指標を提供し,今後の研究の方向性を指摘する。
論文 参考訳(メタデータ) (2022-07-26T01:45:54Z) - Towards the Explanation of Graph Neural Networks in Digital Pathology
with Information Flows [67.23405590815602]
グラフニューラルネットワーク(GNN)は、デジタル病理学において広く採用されている。
既存の説明者は、予測に関連する説明的部分グラフを発見する。
説明文は、予測に必要であるだけでなく、最も予測可能な領域を明らかにするのに十分である。
本稿では, IFEXPLAINERを提案する。
論文 参考訳(メタデータ) (2021-12-18T10:19:01Z) - ProtGNN: Towards Self-Explaining Graph Neural Networks [12.789013658551454]
本稿では,プロトタイプ学習とGNNを組み合わせたプロトタイプグラフニューラルネットワーク(ProtGNN)を提案する。
ProtGNNとProtGNN+は、非解釈不能のものと同等の精度を保ちながら、本質的に解釈可能である。
論文 参考訳(メタデータ) (2021-12-02T01:16:29Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。