論文の概要: View-based Explanations for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2401.02086v2
- Date: Mon, 8 Jan 2024 01:59:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 11:27:20.379984
- Title: View-based Explanations for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのためのビューベース説明
- Authors: Tingyang Chen, Dazhuo Qiu, Yinghui Wu, Arijit Khan, Xiangyu Ke, Yunjun
Gao
- Abstract要約: 本稿では,表現のためのグラフビューを生成する新しいパラダイムであるGVEXを提案する。
この戦略は近似比が1/2であることを示す。
第2のアルゴリズムは、インプットノードストリームへの単一パスをバッチで実行し、説明ビューを漸進的に維持する。
- 参考スコア(独自算出の注目度): 27.19300566616961
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating explanations for graph neural networks (GNNs) has been studied to
understand their behavior in analytical tasks such as graph classification.
Existing approaches aim to understand the overall results of GNNs rather than
providing explanations for specific class labels of interest, and may return
explanation structures that are hard to access, nor directly queryable.We
propose GVEX, a novel paradigm that generates Graph Views for EXplanation. (1)
We design a two-tier explanation structure called explanation views. An
explanation view consists of a set of graph patterns and a set of induced
explanation subgraphs. Given a database G of multiple graphs and a specific
class label l assigned by a GNN-based classifier M, it concisely describes the
fraction of G that best explains why l is assigned by M. (2) We propose quality
measures and formulate an optimization problem to compute optimal explanation
views for GNN explanation. We show that the problem is $\Sigma^2_P$-hard. (3)
We present two algorithms. The first one follows an explain-and-summarize
strategy that first generates high-quality explanation subgraphs which best
explain GNNs in terms of feature influence maximization, and then performs a
summarization step to generate patterns. We show that this strategy provides an
approximation ratio of 1/2. Our second algorithm performs a single-pass to an
input node stream in batches to incrementally maintain explanation views,
having an anytime quality guarantee of 1/4 approximation. Using real-world
benchmark data, we experimentally demonstrate the effectiveness, efficiency,
and scalability of GVEX. Through case studies, we showcase the practical
applications of GVEX.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)について,グラフ分類などの解析的タスクにおいて,その振る舞いを理解するために説明を生成する。
既存のアプローチは、特定のクラスラベルの説明を提供するのではなく、GNNの全体的な結果を理解することを目的としており、アクセスしにくく、直接クエリしにくい説明構造を返す可能性がある。
1)説明ビューと呼ばれる二層説明構造を設計する。
説明ビューは、グラフパターンのセットと、誘導された説明サブグラフのセットで構成される。
複数のグラフからなるデータベースGと、GNN ベースの分類器 M によって割り当てられた特定のクラスラベル l が与えられた場合、G の分節を簡潔に記述し、なぜ l が M によって割り当てられるのかを最もよく説明する。
問題は$\Sigma^2_P$-hardである。
3) 2つのアルゴリズムを提示する。
ひとつは説明と要約の戦略で、まずはgnnを機能影響の最大化の観点から説明し、次にパターンを生成するための要約ステップを実行する高品質な説明サブグラフを生成する。
この戦略は近似比が1/2であることを示す。
第2のアルゴリズムは、バッチで入力ノードストリームへのシングルパスを実行し、説明ビューをインクリメンタルに維持し、1/4近似の時間品質を保証する。
実世界のベンチマークデータを用いて,GVEXの有効性,効率,スケーラビリティを実験的に検証した。
ケーススタディを通じて,GVEXの実用化について紹介する。
関連論文リスト
- Utilizing Description Logics for Global Explanations of Heterogeneous Graph Neural Networks [0.25782420501870296]
本稿では、記述論理(DL)の分野からクラス表現(CE)を利用して、複数の十分説明のあるクラスを説明する。
提案手法では,EL記述論理のCEを用いて,異なる種類のノードを持つ異種グラフを解析する。
論文 参考訳(メタデータ) (2024-05-21T10:07:29Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - PAGE: Prototype-Based Model-Level Explanations for Graph Neural Networks [12.16789930553124]
The Prototype-bAsed GNN-Explainer (Page) is a novel model-level explanation for graph classification。
Pageは、高いマッチングノードを反復的に検索することで、共通のサブグラフパターンを発見する。
6つのグラフ分類データセットを用いて、PAGEが最先端のモデルレベルの説明法よりも質的に定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-10-31T09:10:06Z) - Faithful Explanations for Deep Graph Models [44.3056871040946]
本稿では,グラフニューラルネットワーク(GNN)の忠実な説明について述べる。
これは、特徴属性やサブグラフ説明を含む既存の説明方法に適用される。
第3に,元のGNNへの忠実度を確実に最大化する新しい説明法である,畳み込みコア(KEC)を用いたEmphk-hop Explanationを導入する。
論文 参考訳(メタデータ) (2022-05-24T07:18:56Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - A Meta-Learning Approach for Training Explainable Graph Neural Networks [10.11960004698409]
本稿では,GNNの学習時間における説明可能性向上のためのメタラーニングフレームワークを提案する。
我々のフレームワークは、例えばノード分類などの元のタスクを解決するためにモデルを共同で訓練し、下流アルゴリズムで容易に処理可能な出力を提供する。
我々のモデルに依存しないアプローチは、異なるGNNアーキテクチャで生成された説明を改善し、このプロセスを駆動するためにインスタンスベースの説明器を使用することができます。
論文 参考訳(メタデータ) (2021-09-20T11:09:10Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。