論文の概要: GRAPHSHAP: Explaining Identity-Aware Graph Classifiers Through the
Language of Motifs
- arxiv url: http://arxiv.org/abs/2202.08815v2
- Date: Fri, 7 Jul 2023 12:53:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 16:24:32.211912
- Title: GRAPHSHAP: Explaining Identity-Aware Graph Classifiers Through the
Language of Motifs
- Title(参考訳): GraphSHAP: モチーフ言語によるアイデンティティ対応グラフ分類器の説明
- Authors: Alan Perotti, Paolo Bajardi, Francesco Bonchi, and Andr\'e Panisson
- Abstract要約: GraphSHAPは、ID対応グラフ分類器のモチーフベースの説明を提供することができる。
簡単なカーネルが説明スコアを効率的に近似し,説明空間が大きいシナリオで GraphSHAP をスケールできるようにする方法を示す。
実験では,ブラックボックスモデルによって提供される分類が,いくつかのコネクトロミクスパターンによって効果的に説明できることを強調した。
- 参考スコア(独自算出の注目度): 11.453325862543094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most methods for explaining black-box classifiers (e.g. on tabular data,
images, or time series) rely on measuring the impact that removing/perturbing
features has on the model output. This forces the explanation language to match
the classifier's feature space. However, when dealing with graph data, in which
the basic features correspond to the edges describing the graph structure, this
matching between features space and explanation language might not be
appropriate. Decoupling the feature space (edges) from a desired high-level
explanation language (such as motifs) is thus a major challenge towards
developing actionable explanations for graph classification tasks. In this
paper we introduce GRAPHSHAP, a Shapley-based approach able to provide
motif-based explanations for identity-aware graph classifiers, assuming no
knowledge whatsoever about the model or its training data: the only requirement
is that the classifier can be queried as a black-box at will. For the sake of
computational efficiency we explore a progressive approximation strategy and
show how a simple kernel can efficiently approximate explanation scores, thus
allowing GRAPHSHAP to scale on scenarios with a large explanation space (i.e.
large number of motifs). We showcase GRAPHSHAP on a real-world brain-network
dataset consisting of patients affected by Autism Spectrum Disorder and a
control group. Our experiments highlight how the classification provided by a
black-box model can be effectively explained by few connectomics patterns.
- Abstract(参考訳): ブラックボックス分類器(例えば表データ、画像、時系列)を説明するほとんどの方法は、特徴の削除/摂動がモデル出力に与える影響を測定することに依存している。
これにより、説明言語は分類子の特徴空間にマッチする。
しかし、基本的な特徴がグラフ構造を記述するエッジに対応するグラフデータを扱う場合、この特徴空間と説明言語とのマッチングは適切ではないかもしれない。
したがって、特徴空間(エッジ)を所望の高レベルな説明言語(モチーフなど)から分離することは、グラフ分類タスクの実行可能な説明を開発するための大きな課題である。
本稿では,Shapley ベースのアプローチである GraphSHAP を導入し,モデルやトレーニングデータについて何の知識も必要とせず,その分類器をブラックボックスとして任意にクエリできることを前提として,識別対応グラフ分類器のモチーフに基づく説明を提供する。
計算効率を向上させるため、我々はプログレッシブ近似戦略を探求し、単純なカーネルが説明スコアを効率的に近似する方法を示し、GraphSHAPが大きな説明空間を持つシナリオ(つまり多数のモチーフ)でスケールできるようにする。
我々は,自閉症スペクトラム障害の患者とコントロールグループからなる実世界の脳ネットワークデータセット上で GraphSHAP を紹介した。
実験では,ブラックボックスモデルが提供する分類が,コネクトロミクスパターンによって効果的に説明できることを示す。
関連論文リスト
- Neural Graph Pattern Machine [50.78679002846741]
本稿では,グラフパターンから直接学習するためのフレームワークであるNeural Graph Pattern Machine (GPM)を提案する。
GPMは、下流タスクにおいて最も関連性の高いものを特定しながら、下位構造を効率的に抽出し、エンコードする。
論文 参考訳(メタデータ) (2025-01-30T20:37:47Z) - Graph Counterfactual Explainable AI via Latent Space Traversal [4.337339380445765]
反実的な説明は、分配の代替入力の「アレスト」を見つけることによって予測を説明することを目的としている。
本稿では, 識別可能なブラックボックスグラフ分類器に対して, 反実的説明を生成する手法を提案する。
我々は3つのグラフデータセットに対するアプローチを実証的に検証し、我々のモデルはベースラインよりも一貫してハイパフォーマンスで堅牢であることを示した。
論文 参考訳(メタデータ) (2025-01-15T15:04:10Z) - Explaining Graph Neural Networks for Node Similarity on Graphs [9.14795454299225]
ノード類似性を計算するためのGNNベースの手法を,説明とともに拡張する方法について検討する。
具体的には、GNNにおける説明に対する2つのアプローチの性能を評価する。
MIの説明とは異なり、勾配に基づく説明は3つの望ましい性質を持つ。
論文 参考訳(メタデータ) (2024-07-10T13:20:47Z) - Structural Node Embeddings with Homomorphism Counts [2.0131144893314232]
準同型は局所構造情報を捉えます
準同型数に基づくノード埋め込みの有効性を実験的に示す。
本手法は,有界木幅グラフクラスに対するグラフ準同型カウントの効率的な計算可能性に着目している。
論文 参考訳(メタデータ) (2023-08-29T13:14:53Z) - Robust Ante-hoc Graph Explainer using Bilevel Optimization [0.7999703756441758]
グラフニューラルネットワークのための新鮮でフレキシブルなアンテホック説明器 RAGE を提案する。
RAGEは、予測に必要な完全な情報を含む分子サブ構造を効果的に識別することができる。
種々の分子分類タスクに関する実験により、RAGEの説明は既存のポストホック法やアンテホック法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-25T05:50:38Z) - Probing Graph Representations [77.7361299039905]
グラフ表現でキャプチャされた意味のある情報の量を定量化するために、探索フレームワークを使用します。
本研究は, グラフモデルにおける帰納的バイアスを理解するための探索の可能性を示すものである。
グラフベースモデルを評価する上で有用な診断ツールとして,探索を提唱する。
論文 参考訳(メタデータ) (2023-03-07T14:58:18Z) - PAGE: Prototype-Based Model-Level Explanations for Graph Neural Networks [12.16789930553124]
The Prototype-bAsed GNN-Explainer (Page) is a novel model-level explanation for graph classification。
Pageは、高いマッチングノードを反復的に検索することで、共通のサブグラフパターンを発見する。
6つのグラフ分類データセットを用いて、PAGEが最先端のモデルレベルの説明法よりも質的に定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-10-31T09:10:06Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。