論文の概要: Faithful Explanations for Deep Graph Models
- arxiv url: http://arxiv.org/abs/2205.11850v1
- Date: Tue, 24 May 2022 07:18:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 04:46:43.585137
- Title: Faithful Explanations for Deep Graph Models
- Title(参考訳): 深部グラフモデルの忠実な説明
- Authors: Zifan Wang, Yuhang Yao, Chaoran Zhang, Han Zhang, Youjie Kang, Carlee
Joe-Wong, Matt Fredrikson, Anupam Datta
- Abstract要約: 本稿では,グラフニューラルネットワーク(GNN)の忠実な説明について述べる。
これは、特徴属性やサブグラフ説明を含む既存の説明方法に適用される。
第3に,元のGNNへの忠実度を確実に最大化する新しい説明法である,畳み込みコア(KEC)を用いたEmphk-hop Explanationを導入する。
- 参考スコア(独自算出の注目度): 44.3056871040946
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper studies faithful explanations for Graph Neural Networks (GNNs).
First, we provide a new and general method for formally characterizing the
faithfulness of explanations for GNNs. It applies to existing explanation
methods, including feature attributions and subgraph explanations. Second, our
analytical and empirical results demonstrate that feature attribution methods
cannot capture the nonlinear effect of edge features, while existing subgraph
explanation methods are not faithful. Third, we introduce \emph{k-hop
Explanation with a Convolutional Core} (KEC), a new explanation method that
provably maximizes faithfulness to the original GNN by leveraging information
about the graph structure in its adjacency matrix and its \emph{k-th} power.
Lastly, our empirical results over both synthetic and real-world datasets for
classification and anomaly detection tasks with GNNs demonstrate the
effectiveness of our approach.
- Abstract(参考訳): 本稿では,グラフニューラルネットワーク(GNN)の忠実な説明について述べる。
まず、GNNに対する説明の忠実さを正式に特徴付けるための新しい一般的な方法を提案する。
これは、特徴属性やサブグラフ説明を含む既存の説明方法に適用される。
第2に,既存サブグラフ説明法は忠実ではないものの,特徴属性法はエッジ特徴の非線形効果を捉えることができないことを示す。
第3に,その隣接行列におけるグラフ構造とそのemph{k-th}パワーの情報を活用することにより,元のGNNへの忠実度を確実に最大化する新しい説明法である,KEC(Emph{k-hop Explanation with a Convolutional Core})を導入する。
最後に、GNNを用いた分類および異常検出タスクのための合成と実世界の両方のデータセットに対する実験結果から、我々のアプローチの有効性が示された。
関連論文リスト
- GOAt: Explaining Graph Neural Networks via Graph Output Attribution [32.66251068600664]
本稿では,入力グラフの特徴にグラフ出力を属性付ける新しい手法として,グラフ出力属性(GOAt)を提案する。
GOAtは忠実で差別的で、類似のサンプルで安定している。
提案手法は, 一般に使用されている忠実度測定値において, 最先端のGNN説明器よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-26T00:32:58Z) - View-based Explanations for Graph Neural Networks [27.19300566616961]
本稿では,表現のためのグラフビューを生成する新しいパラダイムであるGVEXを提案する。
この戦略は近似比が1/2であることを示す。
第2のアルゴリズムは、インプットノードストリームへの単一パスをバッチで実行し、説明ビューを漸進的に維持する。
論文 参考訳(メタデータ) (2024-01-04T06:20:24Z) - Factorized Explainer for Graph Neural Networks [7.382632811417645]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する能力によって、注目を集めている。
GNN予測を理解するために、ポストホックなインスタンスレベルの説明法が提案されている。
理論的性能保証を伴う新しい因子化説明モデルを提案する。
論文 参考訳(メタデータ) (2023-12-09T15:29:45Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Towards a Rigorous Theoretical Analysis and Evaluation of GNN
Explanations [25.954303305216094]
本稿では,最新のGNN説明法を理論的に解析し,評価し,比較するための最初の公理的枠組みを提案する。
我々はこれらの特性を利用して、最先端のGNN説明法の有効性を初めて理論的に解析した。
論文 参考訳(メタデータ) (2021-06-16T18:38:30Z) - SEEN: Sharpening Explanations for Graph Neural Networks using
Explanations from Neighborhoods [0.0]
本稿では,補助的説明の集約によるノード分類タスクの説明品質の向上手法を提案する。
SEENを適用するにはグラフを変更する必要はなく、さまざまな説明可能性のテクニックで使用することができる。
与えられたグラフからモチーフ参加ノードをマッチングする実験では、説明精度が最大12.71%向上した。
論文 参考訳(メタデータ) (2021-06-16T03:04:46Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。