論文の概要: Distill n' Explain: explaining graph neural networks using simple
surrogates
- arxiv url: http://arxiv.org/abs/2303.10139v1
- Date: Fri, 17 Mar 2023 17:27:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 13:39:43.635754
- Title: Distill n' Explain: explaining graph neural networks using simple
surrogates
- Title(参考訳): Distill n' Explain:単純なサロゲートを用いたグラフニューラルネットワークの説明
- Authors: Tamara Pereira and Erik Nasciment and Lucas E. Resck and Diego
Mesquita and Amauri Souza
- Abstract要約: 我々はグラフニューラルネットワーク(GNN)におけるノード予測を説明するためにDistill n' Explain (DnX)を提案する。
まず、DnXは、知識蒸留により代理GNNを学習し、次に、単純な凸プログラムを解くことにより、ノードまたはエッジレベルの説明を抽出する。
我々はまた、我々の代理モデルの線形分解を利用するDnXのより高速なバージョンであるFastDnXを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explaining node predictions in graph neural networks (GNNs) often boils down
to finding graph substructures that preserve predictions. Finding these
structures usually implies back-propagating through the GNN, bonding the
complexity (e.g., number of layers) of the GNN to the cost of explaining it.
This naturally begs the question: Can we break this bond by explaining a
simpler surrogate GNN? To answer the question, we propose Distill n' Explain
(DnX). First, DnX learns a surrogate GNN via knowledge distillation. Then, DnX
extracts node or edge-level explanations by solving a simple convex program. We
also propose FastDnX, a faster version of DnX that leverages the linear
decomposition of our surrogate model. Experiments show that DnX and FastDnX
often outperform state-of-the-art GNN explainers while being orders of
magnitude faster. Additionally, we support our empirical findings with
theoretical results linking the quality of the surrogate model (i.e.,
distillation error) to the faithfulness of explanations.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)でノード予測を説明することは、しばしば、予測を保存するグラフサブ構造を見つけることにつながる。
これらの構造を見つけることは、通常、GNNを通してバックプロパゲートし、GNNの複雑さ(例えば、層数)を説明コストに結びつけることを意味する。
単純な代理GNNを説明することで、この債券を破ることができるだろうか?
この疑問に答えるために、DnX(Distill n' Explain)を提案する。
まず、DnXは知識蒸留を通して代理GNNを学ぶ。
そして、DnXは単純な凸プログラムを解くことでノードやエッジレベルの説明を抽出する。
また,我々のサロゲートモデルの線形分解を利用した高速なdnxであるfastdnxを提案する。
実験の結果、DnXとFastDnXは最先端のGNN説明器よりも桁違いに高速であることがわかった。
さらに, サロゲートモデルの品質(すなわち蒸留誤差)と説明の忠実さを結びつけた理論的結果を用いて, 経験的知見を裏付ける。
関連論文リスト
- Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Toward Multiple Specialty Learners for Explaining GNNs via Online
Knowledge Distillation [0.17842332554022688]
グラフニューラルネットワーク(GNN)は、多くのアプリケーションやシステムにおいてますます普及し、それらの予測を説明する必要がある。
そこで我々はSCALEという新しいGNN説明フレームワークを提案する。
トレーニングにおいて、ブラックボックスGNNモデルは、オンライン知識蒸留パラダイムに基づいて学習者をガイドする。
具体的には、エッジマスキングと再起動手順によるランダムウォークを実行し、グラフレベルとノードレベルの予測の構造的説明を提供する。
論文 参考訳(メタデータ) (2022-10-20T08:44:57Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - ProtGNN: Towards Self-Explaining Graph Neural Networks [12.789013658551454]
本稿では,プロトタイプ学習とGNNを組み合わせたプロトタイプグラフニューラルネットワーク(ProtGNN)を提案する。
ProtGNNとProtGNN+は、非解釈不能のものと同等の精度を保ちながら、本質的に解釈可能である。
論文 参考訳(メタデータ) (2021-12-02T01:16:29Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。