論文の概要: Explaining Graph-level Predictions with Communication Structure-Aware
Cooperative Games
- arxiv url: http://arxiv.org/abs/2201.12380v1
- Date: Fri, 28 Jan 2022 19:19:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 16:56:41.331236
- Title: Explaining Graph-level Predictions with Communication Structure-Aware
Cooperative Games
- Title(参考訳): コミュニケーション構造を考慮した協調ゲームによるグラフレベルの予測
- Authors: Shichang Zhang, Neil Shah, Yozen Liu, Yizhou Sun
- Abstract要約: グラフ説明におけるShapley値の妥当性を再検討し、グラフレベルの予測において最も重要な部分グラフと構成ノードを特定する。
本稿では、重要なグラフ構造情報を活用して説明を改善するグラフ構造対応eXplanation(GStarX)法を提案する。
- 参考スコア(独自算出の注目度): 36.9203376697204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explaining predictions made by machine learning models is important and have
attracted an increased interest. The Shapley value from cooperative game theory
has been proposed as a prime approach to compute feature importances towards
predictions, especially for images, text, tabular data, and recently graph
neural networks (GNNs) on graphs. In this work, we revisit the appropriateness
of the Shapley value for graph explanation, where the task is to identify the
most important subgraph and constituent nodes for graph-level predictions. We
purport that the Shapley value is a no-ideal choice for graph data because it
is by definition not structure-aware. We propose a Graph Structure-aware
eXplanation (GStarX) method to leverage the critical graph structure
information to improve the explanation. Specifically, we propose a scoring
function based on a new structure-aware value from the cooperative game theory
called the HN value. When used to score node importance, the HN value utilizes
graph structures to attribute cooperation surplus between neighbor nodes,
resembling message passing in GNNs, so that node importance scores reflect not
only the node feature importance, but also the structural roles. We demonstrate
that GstarX produces qualitatively more intuitive explanations, and
quantitatively improves over strong baselines on chemical graph property
prediction and text graph sentiment classification.
- Abstract(参考訳): 機械学習モデルによる予測を説明することが重要であり、興味を惹きつけている。
協調ゲーム理論のShapley値は、特に画像、テキスト、表データ、および最近のグラフ上のグラフニューラルネットワーク(GNN)において、予測に対する特徴的重要性を計算するための主要なアプローチとして提案されている。
本研究では,グラフ記述におけるShapley値の妥当性を再検討し,グラフレベルの予測において最も重要な部分グラフと構成ノードを特定する。
我々は、Shapley値がグラフデータに対する非理想的な選択であると仮定する。
本稿では、重要なグラフ構造情報を利用して説明を改善するグラフ構造対応eXplanation(GStarX)法を提案する。
具体的には,HN値と呼ばれる協調ゲーム理論から,新たな構造認識値に基づくスコアリング関数を提案する。
ノードの重要性を評価する場合、HN値はグラフ構造を利用して、GNNのメッセージパッシングに似た近隣ノード間の協調余剰を属性とし、ノードの重要度スコアはノードの特徴の重要性だけでなく構造的役割も反映する。
我々はGstarXが定性的に直感的に説明し、化学グラフ特性予測とテキストグラフの感情分類に基づく強いベースラインを定量的に改善することを示した。
関連論文リスト
- The GECo algorithm for Graph Neural Networks Explanation [0.0]
本稿では,グラフ分類問題の解釈可能性に対処するために,グラフコミュニティを包含する新たな方法論を提案する。
GECoと呼ばれる提案手法は、コミュニティがグラフノードの密結合部分集合であるなら、この性質はグラフ分類において役割を果たすべきであるという考えを生かしている。
得られた結果は、人工グラフデータセットおよびほとんどの実世界のデータセットの他の手法よりも優れている。
論文 参考訳(メタデータ) (2024-11-18T09:08:30Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - Semantic Graph Neural Network with Multi-measure Learning for
Semi-supervised Classification [5.000404730573809]
近年,グラフニューラルネットワーク(GNN)が注目されている。
近年の研究では、GNNはグラフの複雑な基盤構造に弱いことが示されている。
半教師付き分類のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T06:17:11Z) - SPGP: Structure Prototype Guided Graph Pooling [1.3764085113103217]
グラフレベルの表現を学習するための構造プロトタイプガイドプーリング(SPGP)を提案する。
SPGPはグラフ構造を学習可能なプロトタイプベクトルとして定式化し、ノードとプロトタイプベクトル間の親和性を計算する。
実験の結果,SPGPはグラフ分類ベンチマークデータセットにおいて,最先端のグラフプーリング手法よりも優れていた。
論文 参考訳(メタデータ) (2022-09-16T09:33:09Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - On Explainability of Graph Neural Networks via Subgraph Explorations [48.56936527708657]
本稿では,グラフニューラルネットワーク(GNN)を説明するための新しい手法,SubgraphXを提案する。
我々の研究は,GNNのサブグラフを明示的に識別する最初の試みである。
論文 参考訳(メタデータ) (2021-02-09T22:12:26Z) - Dirichlet Graph Variational Autoencoder [65.94744123832338]
本稿では,グラフクラスタメンバシップを潜在因子とするDGVAE(Dirichlet Graph Variational Autoencoder)を提案する。
バランスグラフカットにおける低パス特性により、入力グラフをクラスタメンバシップにエンコードする、Heattsと呼ばれるGNNの新しい変種を提案する。
論文 参考訳(メタデータ) (2020-10-09T07:35:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。