論文の概要: Towards a Rigorous Theoretical Analysis and Evaluation of GNN
Explanations
- arxiv url: http://arxiv.org/abs/2106.09078v1
- Date: Wed, 16 Jun 2021 18:38:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-19 11:52:47.541173
- Title: Towards a Rigorous Theoretical Analysis and Evaluation of GNN
Explanations
- Title(参考訳): gnn説明の厳密な理論解析と評価に向けて
- Authors: Chirag Agarwal, Marinka Zitnik, Himabindu Lakkaraju
- Abstract要約: 本稿では,最新のGNN説明法を理論的に解析し,評価し,比較するための最初の公理的枠組みを提案する。
我々はこれらの特性を利用して、最先端のGNN説明法の有効性を初めて理論的に解析した。
- 参考スコア(独自算出の注目度): 25.954303305216094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Graph Neural Networks (GNNs) are increasingly employed in real-world
applications, it becomes critical to ensure that the stakeholders understand
the rationale behind their predictions. While several GNN explanation methods
have been proposed recently, there has been little to no work on theoretically
analyzing the behavior of these methods or systematically evaluating their
effectiveness. Here, we introduce the first axiomatic framework for
theoretically analyzing, evaluating, and comparing state-of-the-art GNN
explanation methods. We outline and formalize the key desirable properties that
all GNN explanation methods should satisfy in order to generate reliable
explanations, namely, faithfulness, stability, and fairness. We leverage these
properties to present the first ever theoretical analysis of the effectiveness
of state-of-the-art GNN explanation methods. Our analysis establishes upper
bounds on all the aforementioned properties for popular GNN explanation
methods. We also leverage our framework to empirically evaluate these methods
on multiple real-world datasets from diverse domains. Our empirical results
demonstrate that some popular GNN explanation methods (e.g., gradient-based
methods) perform no better than a random baseline and that methods which
leverage the graph structure are more effective than those that solely rely on
the node features.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)が現実世界のアプリケーションにますます採用されているため、ステークホルダが予測の背後にある理論的根拠を確実に理解することが重要である。
近年、いくつかのGNN説明法が提案されているが、これらの手法の振る舞いを理論的に分析したり、その効果を体系的に評価する研究はほとんど行われていない。
本稿では,最新のGNN説明法を理論的に解析し,評価し,比較するための最初の公理的枠組みを紹介する。
我々は,すべてのGNN説明手法が満たすべき重要な特性,すなわち忠実さ,安定性,公正さの信頼性のある説明を生成するために概要と形式化を行う。
我々はこれらの特性を利用して、最先端のGNN説明法の有効性を初めて理論的に解析した。
本分析は, 一般的なGNN説明法において, 上述のすべての特性の上限を定めている。
また、我々のフレームワークを利用して、様々なドメインから複数の実世界のデータセット上でこれらの手法を実証的に評価する。
実験の結果,いくつかのGNN説明法(例えば勾配に基づく手法)は,ランダムなベースラインに劣らず,グラフ構造を利用する手法はノード機能のみに依存する手法よりも有効であることが示された。
関連論文リスト
- Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - On the Generalization Capability of Temporal Graph Learning Algorithms:
Theoretical Insights and a Simpler Method [59.52204415829695]
テンポラルグラフ学習(TGL)は、様々な現実世界のアプリケーションにまたがる一般的なテクニックとなっている。
本稿では,異なるTGLアルゴリズムの一般化能力について検討する。
一般化誤差が小さく、全体的な性能が向上し、モデルの複雑さが低下する単純化されたTGLネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-26T08:22:22Z) - Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks [12.892400744247565]
我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-07T09:57:39Z) - Factorized Explainer for Graph Neural Networks [7.382632811417645]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する能力によって、注目を集めている。
GNN予測を理解するために、ポストホックなインスタンスレベルの説明法が提案されている。
理論的性能保証を伴う新しい因子化説明モデルを提案する。
論文 参考訳(メタデータ) (2023-12-09T15:29:45Z) - Generative Explanations for Graph Neural Network: Methods and
Evaluations [16.67839967139831]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクにおいて最先端のパフォーマンスを達成する。
GNNのブラックボックスの性質は、解釈可能性と信頼性を制限している。
GNNの意思決定ロジックを明らかにするために,多くの説明可能性手法が提案されている。
論文 参考訳(メタデータ) (2023-11-09T22:07:15Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Faithful Explanations for Deep Graph Models [44.3056871040946]
本稿では,グラフニューラルネットワーク(GNN)の忠実な説明について述べる。
これは、特徴属性やサブグラフ説明を含む既存の説明方法に適用される。
第3に,元のGNNへの忠実度を確実に最大化する新しい説明法である,畳み込みコア(KEC)を用いたEmphk-hop Explanationを導入する。
論文 参考訳(メタデータ) (2022-05-24T07:18:56Z) - SEEN: Sharpening Explanations for Graph Neural Networks using
Explanations from Neighborhoods [0.0]
本稿では,補助的説明の集約によるノード分類タスクの説明品質の向上手法を提案する。
SEENを適用するにはグラフを変更する必要はなく、さまざまな説明可能性のテクニックで使用することができる。
与えられたグラフからモチーフ参加ノードをマッチングする実験では、説明精度が最大12.71%向上した。
論文 参考訳(メタデータ) (2021-06-16T03:04:46Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。