論文の概要: GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2209.07924v1
- Date: Thu, 15 Sep 2022 07:45:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 11:58:21.209274
- Title: GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks
- Title(参考訳): GNNInterpreter:グラフニューラルネットワークのための確率的生成モデルレベル記述
- Authors: Xiaoqi Wang, Han-Wei Shen
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ上での機械学習タスクのパフォーマンスを大幅に向上させた。
メッセージパッシングスキームであるGNNInterpreterに従う異なるGNNに対して,モデルに依存しない新しいモデルレベルの説明法を提案する。
GNNInterpreterは、異なるタイプのノード特徴とエッジ特徴を持つ説明グラフを生成する際に、より計算効率が高く、柔軟である。
- 参考スコア(独自算出の注目度): 13.652831290329912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Graph Neural Networks (GNNs) have significantly advanced the
performance of machine learning tasks on graphs. However, this technological
breakthrough makes people wonder: how does a GNN make such decisions, and can
we trust its prediction with high confidence? When it comes to some critical
fields such as biomedicine, where making wrong decisions can have severe
consequences, interpreting the inner working mechanisms of GNNs before applying
them is crucial. In this paper, we propose a novel model-agnostic model-level
explanation method for different GNNs that follow the message passing scheme,
GNNInterpreter, to explain the high-level decision-making process of the GNN
model. More specifically, with continuous relaxation of graphs and the
reparameterization trick, GNNInterpreter learns a probabilistic generative
graph distribution which produces the most representative graph for the target
prediction in the eye of the GNN model. Compared with the only existing work,
GNNInterpreter is more computationally efficient and more flexible in
generating explanation graphs with different types of node features and edge
features, without introducing another blackbox to explain the GNN and without
requiring domain-specific knowledge. Additionally, the experimental studies
conducted on four different datasets demonstrate that the explanation graph
generated by GNNInterpreter can match the desired graph pattern when the model
is ideal and reveal potential model pitfalls if there exist any.
- Abstract(参考訳): 近年、グラフニューラルネットワーク(gnns)は、グラフ上の機械学習タスクのパフォーマンスを著しく向上させている。
しかし、この技術的ブレークスルーは、人々が不思議に思う。GNNは、どうやってそのような決定を下すのか、そして、高い信頼で予測を信頼できるのか?
バイオメディシンのようないくつかの重要な分野において、間違った決定を下すと深刻な結果をもたらす場合、gnnの内部動作メカニズムを適用前に解釈することが重要である。
本稿では,GNNモデルの高次決定過程を説明するために,メッセージパッシング方式であるGNNInterpreterに従う異なるGNNに対して,モデルに依存しないモデルレベルの説明手法を提案する。
より具体的には、グラフの連続的な緩和と再パラメータ化のトリックにより、GNNInterpreterはGNNモデルにおいてターゲット予測のための最も代表的なグラフを生成する確率的生成グラフ分布を学習する。
GNNInterpreterは、GNNを説明するために別のブラックボックスを導入することなく、異なるタイプのノード特徴とエッジ特徴を持つ説明グラフを生成する際に、より計算効率が高く、より柔軟である。
さらに、GNNInterpreterが生成した説明グラフは、モデルが理想である場合の所望のグラフパターンと一致し、もし存在する場合の潜在的なモデル落とし穴を明らかにすることができることを示す。
関連論文リスト
- GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Distribution Preserving Graph Representation Learning [11.340722297341788]
グラフニューラルネットワーク(GNN)は、ノードとグラフ全体の分散表現のためのグラフをモデル化するのに有効である。
本稿では,表現型GNNモデルの一般化性を向上させるGNNフレームワークとして,分散保存GNN(DP-GNN)を提案する。
提案するDP-GNNフレームワークを,グラフ分類タスクのための複数のベンチマークデータセット上で評価する。
論文 参考訳(メタデータ) (2022-02-27T19:16:26Z) - ProtGNN: Towards Self-Explaining Graph Neural Networks [12.789013658551454]
本稿では,プロトタイプ学習とGNNを組み合わせたプロトタイプグラフニューラルネットワーク(ProtGNN)を提案する。
ProtGNNとProtGNN+は、非解釈不能のものと同等の精度を保ちながら、本質的に解釈可能である。
論文 参考訳(メタデータ) (2021-12-02T01:16:29Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Graph Neural Networks with Local Graph Parameters [1.8600631687568656]
ローカルグラフパラメータは、任意のグラフニューラルネットワーク(GNN)アーキテクチャに追加することができる。
我々の結果は、有限モデル理論と有限変数論理の深い結果とGNNを結びつける。
論文 参考訳(メタデータ) (2021-06-12T07:43:51Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。