論文の概要: MotifExplainer: a Motif-based Graph Neural Network Explainer
- arxiv url: http://arxiv.org/abs/2202.00519v1
- Date: Tue, 1 Feb 2022 16:11:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 15:43:07.291623
- Title: MotifExplainer: a Motif-based Graph Neural Network Explainer
- Title(参考訳): MotifExplainer: Motifベースのグラフニューラルネットワーク説明器
- Authors: Zhaoning Yu, Hongyang Gao
- Abstract要約: 本稿では,グラフにおける重要なモチーフ,繰り返し,統計的に重要なパターンを同定し,グラフニューラルネットワーク(GNN)を説明する新しい手法を提案する。
提案手法は,ノード,エッジ,正規部分グラフに基づく手法よりも,人間に理解可能な説明を提供する。
- 参考スコア(独自算出の注目度): 19.64574177805823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the explanation problem of Graph Neural Networks (GNNs). Most
existing GNN explanation methods identify the most important edges or nodes but
fail to consider substructures, which are more important for graph data. The
only method that considers subgraphs tries to search all possible subgraphs and
identify the most significant subgraphs. However, the subgraphs identified may
not be recurrent or statistically important. In this work, we propose a novel
method, known as MotifExplainer, to explain GNNs by identifying important
motifs, recurrent and statistically significant patterns in graphs. Our
proposed motif-based methods can provide better human-understandable
explanations than methods based on nodes, edges, and regular subgraphs. Given
an input graph and a pre-trained GNN model, our method first extracts motifs in
the graph using well-designed motif extraction rules. Then we generate motif
embedding by feeding motifs into the pre-trained GNN. Finally, we employ an
attention-based method to identify the most influential motifs as explanations
for the final prediction results. The empirical studies on both synthetic and
real-world datasets demonstrate the effectiveness of our method.
- Abstract(参考訳): 本稿では,グラフニューラルネットワーク(gnns)の説明問題を考える。
既存のGNN説明手法の多くは、最も重要なエッジやノードを識別するが、グラフデータにとってより重要な部分構造を考慮できない。
部分グラフを考える唯一の方法は、可能なすべての部分グラフを探索し、最も重要な部分グラフを識別しようとすることである。
しかし、識別された部分グラフは再帰的あるいは統計的に重要ではない。
本研究では,グラフにおける重要なモチーフ,再帰的,統計的に重要なパターンを識別し,GNNを説明する手法であるMotifExplainerを提案する。
提案手法は,ノード,エッジ,正規部分グラフに基づく手法よりも,人間の理解しやすい説明を提供する。
入力グラフと事前学習GNNモデルが与えられた場合、まず、適切に設計されたモチーフ抽出規則を用いてグラフ内のモチーフを抽出する。
そして、事前学習したGNNにモチーフを供給することでモチーフ埋め込みを生成する。
最後に,最終予測結果に対する説明として,最も影響力のあるモチーフを特定するための注意に基づく手法を提案する。
合成データと実世界のデータの両方に関する実証研究により,本手法の有効性が示された。
関連論文リスト
- MAGE: Model-Level Graph Neural Networks Explanations via Motif-based Graph Generation [16.129359492539095]
グラフニューラルネットワーク(GNN)は、分子タスクにおいて顕著に成功したが、その解釈可能性はまだ難しい。
XGNNやGNNInterpreterのような伝統的なモデルレベルの説明法は、しばしば環のような有効な部分構造を特定するのに失敗し、疑わしい解釈可能性をもたらす。
我々は、モチーフを説明文を生成する基本単位として利用する革新的 textbfMotif-btextbfAsed textbfGNN textbfExplainer (MAGE) を導入する。
論文 参考訳(メタデータ) (2024-05-21T06:12:24Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - PAGE: Prototype-Based Model-Level Explanations for Graph Neural Networks [12.16789930553124]
The Prototype-bAsed GNN-Explainer (Page) is a novel model-level explanation for graph classification。
Pageは、高いマッチングノードを反復的に検索することで、共通のサブグラフパターンを発見する。
6つのグラフ分類データセットを用いて、PAGEが最先端のモデルレベルの説明法よりも質的に定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-10-31T09:10:06Z) - Reasoning Graph Networks for Kinship Verification: from Star-shaped to
Hierarchical [85.0376670244522]
階層型推論グラフネットワークの学習による顔の親和性検証の問題点について検討する。
より強力で柔軟なキャパシティを利用するために,星型推論グラフネットワーク(S-RGN)を開発した。
また、より強力で柔軟なキャパシティを利用する階層型推論グラフネットワーク(H-RGN)も開発しています。
論文 参考訳(メタデータ) (2021-09-06T03:16:56Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - Finding Motifs in Knowledge Graphs using Compression [0.0]
本稿では,知識グラフにネットワークモチーフを求める手法を提案する。
基本的なグラフパターンと一致するように、ネットワークモチーフの共通定義を拡張します。
得られたモチーフがグラフの基本構造を反映していることを示す。
論文 参考訳(メタデータ) (2021-04-16T15:20:44Z) - On Explainability of Graph Neural Networks via Subgraph Explorations [48.56936527708657]
本稿では,グラフニューラルネットワーク(GNN)を説明するための新しい手法,SubgraphXを提案する。
我々の研究は,GNNのサブグラフを明示的に識別する最初の試みである。
論文 参考訳(メタデータ) (2021-02-09T22:12:26Z) - Motif-Driven Contrastive Learning of Graph Representations [32.03481571304036]
しばしば発生するサブグラフパターンであるグラフモチーフを学習し、より良いサブグラフサンプリングを提案する。
ogbg-molhivデータセットをMICRO-Graphで事前トレーニングすることで、事前トレーニングされたGNNは平均性能を2.04%向上させる。
論文 参考訳(メタデータ) (2020-12-23T08:10:19Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。