論文の概要: GOAt: Explaining Graph Neural Networks via Graph Output Attribution
- arxiv url: http://arxiv.org/abs/2401.14578v1
- Date: Fri, 26 Jan 2024 00:32:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 16:12:50.757077
- Title: GOAt: Explaining Graph Neural Networks via Graph Output Attribution
- Title(参考訳): GOAt: グラフ出力属性によるグラフニューラルネットワークの説明
- Authors: Shengyao Lu, Keith G. Mills, Jiao He, Bang Liu, Di Niu
- Abstract要約: 本稿では,入力グラフの特徴にグラフ出力を属性付ける新しい手法として,グラフ出力属性(GOAt)を提案する。
GOAtは忠実で差別的で、類似のサンプルで安定している。
提案手法は, 一般に使用されている忠実度測定値において, 最先端のGNN説明器よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 32.66251068600664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the decision-making process of Graph Neural Networks (GNNs) is
crucial to their interpretability. Most existing methods for explaining GNNs
typically rely on training auxiliary models, resulting in the explanations
remain black-boxed. This paper introduces Graph Output Attribution (GOAt), a
novel method to attribute graph outputs to input graph features, creating GNN
explanations that are faithful, discriminative, as well as stable across
similar samples. By expanding the GNN as a sum of scalar products involving
node features, edge features and activation patterns, we propose an efficient
analytical method to compute contribution of each node or edge feature to each
scalar product and aggregate the contributions from all scalar products in the
expansion form to derive the importance of each node and edge. Through
extensive experiments on synthetic and real-world data, we show that our method
not only outperforms various state-ofthe-art GNN explainers in terms of the
commonly used fidelity metric, but also exhibits stronger discriminability, and
stability by a remarkable margin.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の意思決定プロセスを理解することは、その解釈可能性に不可欠である。
既存のGNNの説明法の多くは、通常、補助モデルの訓練に頼っているため、説明はブラックボックスのままである。
本稿では,グラフ出力を入力グラフ特徴に属性づけする新しい手法であるグラフ出力帰属法(goat)について紹介する。
ノード機能,エッジ機能,アクティベーションパターンを含むスカラー製品の合計としてgnnを拡張することにより,各スカラー製品に対する各ノードあるいはエッジ機能の寄与度を計算し,すべてのスカラー製品からの貢献度を拡張形式で集計し,各ノードとエッジの重要性を導出する効率的な分析手法を提案する。
総合的および実世界データに関する広範な実験により,本手法は,多種多様な最先端gnn説明器を,一般的な忠実度指標で上回るだけでなく,識別性,安定性も著しく向上することを示した。
関連論文リスト
- A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - What functions can Graph Neural Networks compute on random graphs? The
role of Positional Encoding [0.0]
我々は,グラフニューラルネットワーク(GNN)の大規模グラフに対する理論的理解を深めることを目指しており,その表現力に着目している。
近年、GNNは、非常に一般的なランダムグラフモデルにおいて、ノード数が増加するにつれて、特定の関数に収束することを示した。
論文 参考訳(メタデータ) (2023-05-24T07:09:53Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Structural Explanations for Graph Neural Networks using HSIC [21.929646888419914]
グラフニューラルネットワーク(GNN)は、グラフィカルなタスクをエンドツーエンドで処理するニューラルネットワークの一種である。
GNNの複雑なダイナミクスは、グラフの特徴のどの部分が予測に強く寄与しているかを理解するのを困難にしている。
本研究では,グラフ内の重要な構造を検出するために,フレキシブルモデルに依存しない説明法を提案する。
論文 参考訳(メタデータ) (2023-02-04T09:46:47Z) - Faithful Explanations for Deep Graph Models [44.3056871040946]
本稿では,グラフニューラルネットワーク(GNN)の忠実な説明について述べる。
これは、特徴属性やサブグラフ説明を含む既存の説明方法に適用される。
第3に,元のGNNへの忠実度を確実に最大化する新しい説明法である,畳み込みコア(KEC)を用いたEmphk-hop Explanationを導入する。
論文 参考訳(メタデータ) (2022-05-24T07:18:56Z) - Representation Power of Graph Neural Networks: Improved Expressivity via
Algebraic Analysis [124.97061497512804]
標準グラフニューラルネットワーク (GNN) はWeisfeiler-Lehman (WL) アルゴリズムよりも差別的な表現を生成する。
また、白い入力を持つ単純な畳み込みアーキテクチャは、グラフの閉経路をカウントする同変の特徴を生じさせることを示した。
論文 参考訳(メタデータ) (2022-05-19T18:40:25Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。