論文の概要: BAGEL: A Benchmark for Assessing Graph Neural Network Explanations
- arxiv url: http://arxiv.org/abs/2206.13983v1
- Date: Tue, 28 Jun 2022 13:08:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 12:59:16.097090
- Title: BAGEL: A Benchmark for Assessing Graph Neural Network Explanations
- Title(参考訳): BAGEL: グラフニューラルネットワークの説明を評価するベンチマーク
- Authors: Mandeep Rathee, Thorben Funke, Avishek Anand, Megha Khosla
- Abstract要約: グラフニューラルネットワークモデルが与えられた後、GNNモデルを説明するためのいくつかの解釈可能性アプローチが存在する。
本稿では,ベイゲルと呼ばれるGNNにおける説明可能性評価手法を提案する。
我々は4つのGNNモデルと、ノードとグラフの分類タスクに対する9つのポストホックな説明手法に関する広範な実証的研究を行った。
- 参考スコア(独自算出の注目度): 4.43959863685757
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The problem of interpreting the decisions of machine learning is a
well-researched and important. We are interested in a specific type of machine
learning model that deals with graph data called graph neural networks.
Evaluating interpretability approaches for graph neural networks (GNN)
specifically are known to be challenging due to the lack of a commonly accepted
benchmark. Given a GNN model, several interpretability approaches exist to
explain GNN models with diverse (sometimes conflicting) evaluation
methodologies. In this paper, we propose a benchmark for evaluating the
explainability approaches for GNNs called Bagel. In Bagel, we firstly propose
four diverse GNN explanation evaluation regimes -- 1) faithfulness, 2)
sparsity, 3) correctness. and 4) plausibility. We reconcile multiple evaluation
metrics in the existing literature and cover diverse notions for a holistic
evaluation. Our graph datasets range from citation networks, document graphs,
to graphs from molecules and proteins. We conduct an extensive empirical study
on four GNN models and nine post-hoc explanation approaches for node and graph
classification tasks. We open both the benchmarks and reference implementations
and make them available at https://github.com/Mandeep-Rathee/Bagel-benchmark.
- Abstract(参考訳): 機械学習の決定を解釈する問題はよく研究され、重要である。
グラフニューラルネットワークと呼ばれるグラフデータを扱う、特定のタイプの機械学習モデルに興味を持っています。
グラフニューラルネットワーク(GNN)の解釈可能性アプローチの評価は、一般的に受け入れられているベンチマークが欠如していることから、難しいことが知られている。
GNNモデルを考えると、様々な(時には矛盾する)評価手法でGNNモデルを説明するために、いくつかの解釈可能性アプローチが存在する。
本稿では,ベイゲルと呼ばれるGNNにおける説明可能性評価手法を提案する。
ベーゲルでは,まず4つの多様なGNN説明評価体制を提案する。
1)誠実さ
2)スパーシティ
3)正確性。
そして
4) 可能性。
既存の文献に複数の評価指標をまとめ、総合的な評価のために多様な概念を網羅する。
私たちのグラフデータセットは、引用ネットワーク、ドキュメントグラフ、分子やタンパク質のグラフまで様々です。
ノードとグラフの分類タスクに対して,4つのgnnモデルと9つのポストホックな説明アプローチに関する広範な実証研究を行った。
ベンチマークとリファレンス実装の両方を開き、https://github.com/Mandeep-Rathee/Bagel-benchmark.comで公開しています。
関連論文リスト
- Graph Neural Networks on Discriminative Graphs of Words [19.817473565906777]
本研究では,単語グラフニューラルネットワーク(DGoW-GNN)によるテキストの識別手法を提案する。
本稿では,GNNとシーケンスモデルを組み合わせたグラフベースのテキスト分類の新しいモデルを提案する。
提案手法を7つのベンチマークデータセットで評価し,いくつかの最先端ベースラインモデルにより性能が向上していることを確認した。
論文 参考訳(メタデータ) (2024-10-27T15:14:06Z) - The Heterophilic Snowflake Hypothesis: Training and Empowering GNNs for Heterophilic Graphs [59.03660013787925]
ヘテロフィリー・スノーフレーク仮説を導入し、ヘテロ親和性グラフの研究をガイドし、促進するための効果的なソリューションを提供する。
観察の結果,我々のフレームワークは多種多様なタスクのための多目的演算子として機能することがわかった。
さまざまなGNNフレームワークに統合することができ、パフォーマンスを詳細に向上し、最適なネットワーク深さを選択するための説明可能なアプローチを提供する。
論文 参考訳(メタデータ) (2024-06-18T12:16:00Z) - Classifying Nodes in Graphs without GNNs [50.311528896010785]
本稿では,完全GNNフリーなノード分類手法を提案する。
本手法は, 滑らかさ制約, 擬似ラベル反復, 近傍ラベルヒストグラムの3つの主要成分からなる。
論文 参考訳(メタデータ) (2024-02-08T18:59:30Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks [25.94529851210956]
本稿では,異なるグラフニューラルネットワーク(GNN)に対して,メッセージパッシング方式であるGNNInterpreterに従うモデルに依存しないモデルレベルの説明手法を提案する。
GNNInterpreterは、GNNが検出しようとする最も識別性の高いグラフパターンを生成する確率的生成グラフ分布を学習する。
既存の研究と比較すると、GNNInterpreterはノードとエッジの異なるタイプの説明グラフを生成する際に、より柔軟で計算的に効率的である。
論文 参考訳(メタデータ) (2022-09-15T07:45:35Z) - GraphFramEx: Towards Systematic Evaluation of Explainability Methods for Graph Neural Networks [15.648750523827616]
3つの異なる「ユーザニーズ」に対する説明可能性を考慮したGNN説明可能性のための最初の体系的評価フレームワークを提案する。
不適切なが広く使われている合成ベンチマークでは、パーソナライズされたPageRankのような驚くほど浅いテクニックが最小限の計算時間で最高のパフォーマンスを持つ。
しかし,グラフ構造が複雑で有意義な特徴を持つ場合,評価基準に従って勾配法が最適である。
論文 参考訳(メタデータ) (2022-06-20T09:33:12Z) - Beyond Real-world Benchmark Datasets: An Empirical Study of Node
Classification with GNNs [3.547529079746247]
グラフニューラルネットワーク(GNN)はノード分類タスクにおいて大きな成功を収めている。
GNNの既存の評価は、グラフの様々な特性からきめ細かい分析を欠いている。
微粒化解析のための制御特性を持つグラフを生成する合成グラフ生成装置を用いて広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-06-18T08:03:12Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。