論文の概要: Evaluating Explainability for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2208.09339v1
- Date: Fri, 19 Aug 2022 13:43:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-22 16:41:36.222042
- Title: Evaluating Explainability for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークの説明可能性の評価
- Authors: Chirag Agarwal, Owen Queen, Himabindu Lakkaraju, Marinka Zitnik
- Abstract要約: 本稿では,様々なベンチマークデータセットを生成することができる合成グラフデータ生成器ShapeGGenを紹介する。
ShapeGGenといくつかの実世界のグラフデータセットを、オープンソースのグラフ説明可能性ライブラリであるGraphXAIに含めています。
- 参考スコア(独自算出の注目度): 21.339111121529815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As post hoc explanations are increasingly used to understand the behavior of
graph neural networks (GNNs), it becomes crucial to evaluate the quality and
reliability of GNN explanations. However, assessing the quality of GNN
explanations is challenging as existing graph datasets have no or unreliable
ground-truth explanations for a given task. Here, we introduce a synthetic
graph data generator, ShapeGGen, which can generate a variety of benchmark
datasets (e.g., varying graph sizes, degree distributions, homophilic vs.
heterophilic graphs) accompanied by ground-truth explanations. Further, the
flexibility to generate diverse synthetic datasets and corresponding
ground-truth explanations allows us to mimic the data generated by various
real-world applications. We include ShapeGGen and several real-world graph
datasets into an open-source graph explainability library, GraphXAI. In
addition to synthetic and real-world graph datasets with ground-truth
explanations, GraphXAI provides data loaders, data processing functions,
visualizers, GNN model implementations, and evaluation metrics to benchmark the
performance of GNN explainability methods.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の振る舞いを理解するためにポストホックな説明がますます使われているため、GNNの説明の品質と信頼性を評価することが重要である。
しかしながら、既存のグラフデータセットが与えられたタスクに対して根拠となる説明を全く持たない、あるいは信頼できないため、gnnの説明の品質を評価することは困難である。
本稿では, 様々なベンチマークデータセット(例えば, グラフサイズ, 次数分布, ホモ親和性, ヘテロ親和性グラフ)を, 地層構造の説明を伴う合成グラフデータ生成器であるShapeGGenを紹介する。
さらに、多様な合成データセットを生成する柔軟性と、対応する接地説明により、様々な実世界のアプリケーションによって生成されたデータを模倣することができる。
ShapeGGenといくつかの実世界のグラフデータセットを、オープンソースのグラフ説明可能性ライブラリGraphXAIに含めています。
合成および実世界のグラフデータセットに加えて、graphxaiはデータローダ、データ処理関数、ビジュアライザ、gnnモデル実装、評価メトリクスを提供し、gnn説明可能性メソッドのパフォーマンスをベンチマークする。
関連論文リスト
- Graph Reasoning Networks [9.18586425686959]
Graph Reasoning Networks (GRNs) は、グラフ表現と学習したグラフ表現の長所と、微分可能満足度解法に基づく推論モジュールを組み合わせるための新しいアプローチである。
実世界のデータセットの結果は、GNNに匹敵するパフォーマンスを示している。
合成データセットの実験は、新しく提案された手法の可能性を示している。
論文 参考訳(メタデータ) (2024-07-08T10:53:49Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Graph Distillation with Eigenbasis Matching [43.59076214528843]
実グラフの代わりに固有基底マッチング(GDEM)を用いたグラフ蒸留を提案する。
GDEMは実グラフと合成グラフの固有基底とノード特徴を整列する。
実グラフのスペクトルを直接再現することで、GNNの影響を防止できる。
論文 参考訳(メタデータ) (2023-10-13T15:48:12Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Graph Generative Model for Benchmarking Graph Neural Networks [73.11514658000547]
本稿では,プライバシ制御により実世界のグラフの分布を学習し,再現する新しいグラフ生成モデルを提案する。
我々のモデルは、GNNモデルのベンチマークに効果的に使用できる大規模な実世界のグラフの、プライバシ制御された合成代用をうまく生成することができる。
論文 参考訳(メタデータ) (2022-07-10T06:42:02Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z) - Explain Graph Neural Networks to Understand Weighted Graph Features in
Node Classification [15.41200827860072]
本稿では,情報成分と重要なノード特徴を特定するために,新しいグラフ特徴の説明手法を提案する。
提案手法は,人間の解釈によってノード分類に使用されるデータパターンを模倣できることを示す。
論文 参考訳(メタデータ) (2020-02-02T23:53:21Z) - GraphLIME: Local Interpretable Model Explanations for Graph Neural
Networks [45.824642013383944]
グラフニューラルネットワーク(GNN)は,グラフ構造化データを効果的に表現することに成功した。
本稿では,Hilbert-Schmidt Independence Criterion (HSIC) Lasso を用いたグラフの局所的解釈可能なモデル記述法 GraphLIME を提案する。
論文 参考訳(メタデータ) (2020-01-17T09:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。