論文の概要: GRAPHSHAP: Explaining Identity-Aware Graph Classifiers Through the
Language of Motifs
- arxiv url: http://arxiv.org/abs/2202.08815v2
- Date: Fri, 7 Jul 2023 12:53:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 16:24:32.211912
- Title: GRAPHSHAP: Explaining Identity-Aware Graph Classifiers Through the
Language of Motifs
- Title(参考訳): GraphSHAP: モチーフ言語によるアイデンティティ対応グラフ分類器の説明
- Authors: Alan Perotti, Paolo Bajardi, Francesco Bonchi, and Andr\'e Panisson
- Abstract要約: GraphSHAPは、ID対応グラフ分類器のモチーフベースの説明を提供することができる。
簡単なカーネルが説明スコアを効率的に近似し,説明空間が大きいシナリオで GraphSHAP をスケールできるようにする方法を示す。
実験では,ブラックボックスモデルによって提供される分類が,いくつかのコネクトロミクスパターンによって効果的に説明できることを強調した。
- 参考スコア(独自算出の注目度): 11.453325862543094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most methods for explaining black-box classifiers (e.g. on tabular data,
images, or time series) rely on measuring the impact that removing/perturbing
features has on the model output. This forces the explanation language to match
the classifier's feature space. However, when dealing with graph data, in which
the basic features correspond to the edges describing the graph structure, this
matching between features space and explanation language might not be
appropriate. Decoupling the feature space (edges) from a desired high-level
explanation language (such as motifs) is thus a major challenge towards
developing actionable explanations for graph classification tasks. In this
paper we introduce GRAPHSHAP, a Shapley-based approach able to provide
motif-based explanations for identity-aware graph classifiers, assuming no
knowledge whatsoever about the model or its training data: the only requirement
is that the classifier can be queried as a black-box at will. For the sake of
computational efficiency we explore a progressive approximation strategy and
show how a simple kernel can efficiently approximate explanation scores, thus
allowing GRAPHSHAP to scale on scenarios with a large explanation space (i.e.
large number of motifs). We showcase GRAPHSHAP on a real-world brain-network
dataset consisting of patients affected by Autism Spectrum Disorder and a
control group. Our experiments highlight how the classification provided by a
black-box model can be effectively explained by few connectomics patterns.
- Abstract(参考訳): ブラックボックス分類器(例えば表データ、画像、時系列)を説明するほとんどの方法は、特徴の削除/摂動がモデル出力に与える影響を測定することに依存している。
これにより、説明言語は分類子の特徴空間にマッチする。
しかし、基本的な特徴がグラフ構造を記述するエッジに対応するグラフデータを扱う場合、この特徴空間と説明言語とのマッチングは適切ではないかもしれない。
したがって、特徴空間(エッジ)を所望の高レベルな説明言語(モチーフなど)から分離することは、グラフ分類タスクの実行可能な説明を開発するための大きな課題である。
本稿では,Shapley ベースのアプローチである GraphSHAP を導入し,モデルやトレーニングデータについて何の知識も必要とせず,その分類器をブラックボックスとして任意にクエリできることを前提として,識別対応グラフ分類器のモチーフに基づく説明を提供する。
計算効率を向上させるため、我々はプログレッシブ近似戦略を探求し、単純なカーネルが説明スコアを効率的に近似する方法を示し、GraphSHAPが大きな説明空間を持つシナリオ(つまり多数のモチーフ)でスケールできるようにする。
我々は,自閉症スペクトラム障害の患者とコントロールグループからなる実世界の脳ネットワークデータセット上で GraphSHAP を紹介した。
実験では,ブラックボックスモデルが提供する分類が,コネクトロミクスパターンによって効果的に説明できることを示す。
関連論文リスト
- Explaining Graph Neural Networks for Node Similarity on Graphs [9.14795454299225]
ノード類似性を計算するためのGNNベースの手法を,説明とともに拡張する方法について検討する。
具体的には、GNNにおける説明に対する2つのアプローチの性能を評価する。
MIの説明とは異なり、勾配に基づく説明は3つの望ましい性質を持つ。
論文 参考訳(メタデータ) (2024-07-10T13:20:47Z) - Structural Node Embeddings with Homomorphism Counts [2.0131144893314232]
準同型は局所構造情報を捉えます
準同型数に基づくノード埋め込みの有効性を実験的に示す。
本手法は,有界木幅グラフクラスに対するグラフ準同型カウントの効率的な計算可能性に着目している。
論文 参考訳(メタデータ) (2023-08-29T13:14:53Z) - Robust Ante-hoc Graph Explainer using Bilevel Optimization [0.7999703756441758]
グラフニューラルネットワークのための新鮮でフレキシブルなアンテホック説明器 RAGE を提案する。
RAGEは、予測に必要な完全な情報を含む分子サブ構造を効果的に識別することができる。
種々の分子分類タスクに関する実験により、RAGEの説明は既存のポストホック法やアンテホック法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-25T05:50:38Z) - Probing Graph Representations [77.7361299039905]
グラフ表現でキャプチャされた意味のある情報の量を定量化するために、探索フレームワークを使用します。
本研究は, グラフモデルにおける帰納的バイアスを理解するための探索の可能性を示すものである。
グラフベースモデルを評価する上で有用な診断ツールとして,探索を提唱する。
論文 参考訳(メタデータ) (2023-03-07T14:58:18Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - PAGE: Prototype-Based Model-Level Explanations for Graph Neural Networks [12.16789930553124]
The Prototype-bAsed GNN-Explainer (Page) is a novel model-level explanation for graph classification。
Pageは、高いマッチングノードを反復的に検索することで、共通のサブグラフパターンを発見する。
6つのグラフ分類データセットを用いて、PAGEが最先端のモデルレベルの説明法よりも質的に定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-10-31T09:10:06Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - GLANCE: Global to Local Architecture-Neutral Concept-based Explanations [26.76139301708958]
本稿では,任意のCNN画像分類器が行う決定を説明するために,新しいツインサロゲート説明可能性フレームワークを提案する。
最初に分類器から潜伏した特徴を取り除き、次にこれらの特徴を観察/人間の定義した文脈の特徴に整列する。
これらのアライメントは意味論的に意味のある概念を形成し、知覚されたデータ生成プロセスを表す因果グラフを抽出する。
我々は、潜在空間における特徴間の相互作用の効果を可視化し、局所的な説明として特徴を重要視するジェネレータを提供する。
論文 参考訳(メタデータ) (2022-07-05T09:52:09Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。