論文の概要: GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2209.07924v4
- Date: Thu, 22 Feb 2024 21:26:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 18:57:17.941076
- Title: GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks
- Title(参考訳): GNNInterpreter:グラフニューラルネットワークのための確率的生成モデルレベル記述
- Authors: Xiaoqi Wang, Han-Wei Shen
- Abstract要約: 本稿では,異なるグラフニューラルネットワーク(GNN)に対して,メッセージパッシング方式であるGNNInterpreterに従うモデルに依存しないモデルレベルの説明手法を提案する。
GNNInterpreterは、GNNが検出しようとする最も識別性の高いグラフパターンを生成する確率的生成グラフ分布を学習する。
既存の研究と比較すると、GNNInterpreterはノードとエッジの異なるタイプの説明グラフを生成する際に、より柔軟で計算的に効率的である。
- 参考スコア(独自算出の注目度): 25.94529851210956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Graph Neural Networks (GNNs) have significantly advanced the
performance of machine learning tasks on graphs. However, this technological
breakthrough makes people wonder: how does a GNN make such decisions, and can
we trust its prediction with high confidence? When it comes to some critical
fields, such as biomedicine, where making wrong decisions can have severe
consequences, it is crucial to interpret the inner working mechanisms of GNNs
before applying them. In this paper, we propose a model-agnostic model-level
explanation method for different GNNs that follow the message passing scheme,
GNNInterpreter, to explain the high-level decision-making process of the GNN
model. More specifically, GNNInterpreter learns a probabilistic generative
graph distribution that produces the most discriminative graph pattern the GNN
tries to detect when making a certain prediction by optimizing a novel
objective function specifically designed for the model-level explanation for
GNNs. Compared to existing works, GNNInterpreter is more flexible and
computationally efficient in generating explanation graphs with different types
of node and edge features, without introducing another blackbox or requiring
manually specified domain-specific rules. In addition, the experimental studies
conducted on four different datasets demonstrate that the explanation graphs
generated by GNNInterpreter match the desired graph pattern if the model is
ideal; otherwise, potential model pitfalls can be revealed by the explanation.
The official implementation can be found at
https://github.com/yolandalalala/GNNInterpreter.
- Abstract(参考訳): 近年、グラフニューラルネットワーク(gnns)は、グラフ上の機械学習タスクのパフォーマンスを著しく向上させている。
しかし、この技術的ブレークスルーは、人々が不思議に思う。GNNは、どうやってそのような決定を下すのか、そして、高い信頼で予測を信頼できるのか?
バイオメディシンのような重要な分野において、間違った判断を下すことが深刻な結果をもたらす場合、GNNの内部動作機構を応用する前に解釈することが重要である。
本稿では,GNNモデルの高レベル意思決定過程を説明するために,メッセージパッシング方式であるGNNInterpreterに従う異なるGNNに対するモデルに依存しないモデルレベルの説明手法を提案する。
より具体的には、GNNInterpreterは、GNNのモデルレベルの説明のために特別に設計された新しい目的関数を最適化することにより、特定の予測を行う際に、最も識別性の高いグラフパターンを生成する確率的生成グラフ分布を学習する。
既存の作品と比較して、gnninterpreterは、別のブラックボックスや手作業で指定されたドメイン固有のルールを必要とせずに、異なる種類のノードとエッジ機能を持つ説明グラフを生成する際に、より柔軟で計算効率が良い。
さらに、4つの異なるデータセットで行った実験により、モデルが理想的であれば、gnninterpreterが生成する説明グラフが所望のグラフパターンにマッチすることを示した。
公式実装はhttps://github.com/yolandalala/GNNInterpreterで見ることができる。
関連論文リスト
- GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Distribution Preserving Graph Representation Learning [11.340722297341788]
グラフニューラルネットワーク(GNN)は、ノードとグラフ全体の分散表現のためのグラフをモデル化するのに有効である。
本稿では,表現型GNNモデルの一般化性を向上させるGNNフレームワークとして,分散保存GNN(DP-GNN)を提案する。
提案するDP-GNNフレームワークを,グラフ分類タスクのための複数のベンチマークデータセット上で評価する。
論文 参考訳(メタデータ) (2022-02-27T19:16:26Z) - ProtGNN: Towards Self-Explaining Graph Neural Networks [12.789013658551454]
本稿では,プロトタイプ学習とGNNを組み合わせたプロトタイプグラフニューラルネットワーク(ProtGNN)を提案する。
ProtGNNとProtGNN+は、非解釈不能のものと同等の精度を保ちながら、本質的に解釈可能である。
論文 参考訳(メタデータ) (2021-12-02T01:16:29Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Graph Neural Networks with Local Graph Parameters [1.8600631687568656]
ローカルグラフパラメータは、任意のグラフニューラルネットワーク(GNN)アーキテクチャに追加することができる。
我々の結果は、有限モデル理論と有限変数論理の深い結果とGNNを結びつける。
論文 参考訳(メタデータ) (2021-06-12T07:43:51Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。