論文の概要: Parameterized Explainer for Graph Neural Network
- arxiv url: http://arxiv.org/abs/2011.04573v1
- Date: Mon, 9 Nov 2020 17:15:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 00:15:27.197654
- Title: Parameterized Explainer for Graph Neural Network
- Title(参考訳): グラフニューラルネットワークのためのパラメータ化説明器
- Authors: Dongsheng Luo, Wei Cheng, Dongkuan Xu, Wenchao Yu, Bo Zong, Haifeng
Chen, Xiang Zhang
- Abstract要約: グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
- 参考スコア(独自算出の注目度): 49.79917262156429
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite recent progress in Graph Neural Networks (GNNs), explaining
predictions made by GNNs remains a challenging open problem. The leading method
independently addresses the local explanations (i.e., important subgraph
structure and node features) to interpret why a GNN model makes the prediction
for a single instance, e.g. a node or a graph. As a result, the explanation
generated is painstakingly customized for each instance. The unique explanation
interpreting each instance independently is not sufficient to provide a global
understanding of the learned GNN model, leading to a lack of generalizability
and hindering it from being used in the inductive setting. Besides, as it is
designed for explaining a single instance, it is challenging to explain a set
of instances naturally (e.g., graphs of a given class). In this study, we
address these key challenges and propose PGExplainer, a parameterized explainer
for GNNs. PGExplainer adopts a deep neural network to parameterize the
generation process of explanations, which enables PGExplainer a natural
approach to explaining multiple instances collectively. Compared to the
existing work, PGExplainer has better generalization ability and can be
utilized in an inductive setting easily. Experiments on both synthetic and
real-life datasets show highly competitive performance with up to 24.7\%
relative improvement in AUC on explaining graph classification over the leading
baseline.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の最近の進歩にもかかわらず、GNNによる予測を説明することは難しい問題である。
先行する手法は、GNNモデルが単一インスタンス(例えばノードやグラフ)の予測を行う理由を解釈するために、局所的な説明(重要なサブグラフ構造とノードの特徴)を独立に扱う。
その結果、生成された説明は各インスタンスに対して辛抱強くカスタマイズされる。
各インスタンスを独立に解釈するユニークな説明は、学習したGNNモデルのグローバルな理解を提供するには不十分であり、一般化性の欠如と帰納的設定での使用を妨げる。
さらに、単一のインスタンスを説明するように設計されているため、一連のインスタンス(例えば、あるクラスのグラフ)を自然に説明することは困難である。
本研究では、これらの課題に対処し、GNNのためのパラメータ化説明器PGExplainerを提案する。
PGExplainerは、説明の生成プロセスをパラメータ化するためにディープニューラルネットワークを採用しており、PGExplainerは複数のインスタンスをまとめて説明する自然なアプローチを可能にする。
既存の作業と比較して、pgexplainerはより良い一般化能力を持ち、インダクティブな設定で簡単に利用できる。
合成データセットと実時間データセットの両方の実験では、リードベースライン上でグラフ分類を説明するaucの相対的改善が最大24.7\%と高い競合性を示している。
関連論文リスト
- Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - View-based Explanations for Graph Neural Networks [27.19300566616961]
本稿では,表現のためのグラフビューを生成する新しいパラダイムであるGVEXを提案する。
この戦略は近似比が1/2であることを示す。
第2のアルゴリズムは、インプットノードストリームへの単一パスをバッチで実行し、説明ビューを漸進的に維持する。
論文 参考訳(メタデータ) (2024-01-04T06:20:24Z) - Toward Multiple Specialty Learners for Explaining GNNs via Online
Knowledge Distillation [0.17842332554022688]
グラフニューラルネットワーク(GNN)は、多くのアプリケーションやシステムにおいてますます普及し、それらの予測を説明する必要がある。
そこで我々はSCALEという新しいGNN説明フレームワークを提案する。
トレーニングにおいて、ブラックボックスGNNモデルは、オンライン知識蒸留パラダイムに基づいて学習者をガイドする。
具体的には、エッジマスキングと再起動手順によるランダムウォークを実行し、グラフレベルとノードレベルの予測の構造的説明を提供する。
論文 参考訳(メタデータ) (2022-10-20T08:44:57Z) - Explainability in subgraphs-enhanced Graph Neural Networks [12.526174412246107]
グラフ強化グラフニューラルネットワーク(SGNN)は,GNNの表現力を高めるために導入された。
本稿では, GNN の最近の解説者の一つである PGExplainer を SGNN に適用する。
本稿では,グラフ分類タスクにおけるSGNNの決定過程を説明することに成功していることを示す。
論文 参考訳(メタデータ) (2022-09-16T13:39:10Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - A Meta-Learning Approach for Training Explainable Graph Neural Networks [10.11960004698409]
本稿では,GNNの学習時間における説明可能性向上のためのメタラーニングフレームワークを提案する。
我々のフレームワークは、例えばノード分類などの元のタスクを解決するためにモデルを共同で訓練し、下流アルゴリズムで容易に処理可能な出力を提供する。
我々のモデルに依存しないアプローチは、異なるGNNアーキテクチャで生成された説明を改善し、このプロセスを駆動するためにインスタンスベースの説明器を使用することができます。
論文 参考訳(メタデータ) (2021-09-20T11:09:10Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。