論文の概要: A Meta-Learning Approach for Training Explainable Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2109.09426v1
- Date: Mon, 20 Sep 2021 11:09:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 01:17:28.523561
- Title: A Meta-Learning Approach for Training Explainable Graph Neural Networks
- Title(参考訳): 説明可能なグラフニューラルネットワークの学習のためのメタラーニング手法
- Authors: Indro Spinelli, Simone Scardapane, Aurelio Uncini
- Abstract要約: 本稿では,GNNの学習時間における説明可能性向上のためのメタラーニングフレームワークを提案する。
我々のフレームワークは、例えばノード分類などの元のタスクを解決するためにモデルを共同で訓練し、下流アルゴリズムで容易に処理可能な出力を提供する。
我々のモデルに依存しないアプローチは、異なるGNNアーキテクチャで生成された説明を改善し、このプロセスを駆動するためにインスタンスベースの説明器を使用することができます。
- 参考スコア(独自算出の注目度): 10.11960004698409
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we investigate the degree of explainability of graph neural
networks (GNNs). Existing explainers work by finding global/local subgraphs to
explain a prediction, but they are applied after a GNN has already been
trained. Here, we propose a meta-learning framework for improving the level of
explainability of a GNN directly at training time, by steering the optimization
procedure towards what we call `interpretable minima'. Our framework (called
MATE, MetA-Train to Explain) jointly trains a model to solve the original task,
e.g., node classification, and to provide easily processable outputs for
downstream algorithms that explain the model's decisions in a human-friendly
way. In particular, we meta-train the model's parameters to quickly minimize
the error of an instance-level GNNExplainer trained on-the-fly on randomly
sampled nodes. The final internal representation relies upon a set of features
that can be `better' understood by an explanation algorithm, e.g., another
instance of GNNExplainer. Our model-agnostic approach can improve the
explanations produced for different GNN architectures and use any
instance-based explainer to drive this process. Experiments on synthetic and
real-world datasets for node and graph classification show that we can produce
models that are consistently easier to explain by different algorithms.
Furthermore, this increase in explainability comes at no cost for the accuracy
of the model.
- Abstract(参考訳): 本稿では,グラフニューラルネットワーク(gnns)の説明可能性の程度について検討する。
既存の説明者は、予測を説明するグローバル/ローカルのサブグラフを見つけることで機能するが、GNNがすでに訓練された後に適用される。
本稿では,「解釈可能なミニマ」と呼ばれるものに最適化手順を操ることで,学習時間に直接gnnの説明可能性を向上させるメタラーニングフレームワークを提案する。
我々のフレームワーク(mate、meta-train to explain)は、ノード分類のような元のタスクを解決するためにモデルを訓練し、人間にやさしい方法でモデルの決定を説明する下流アルゴリズムの処理可能なアウトプットを提供する。
特に、ランダムにサンプリングされたノード上で訓練されたインスタンスレベルのGNNExplainerのエラーを迅速に最小化するために、モデルのパラメータをメタトレーニングする。
最後の内部表現は、GNNExplainerの別の例のように、説明アルゴリズムによって理解される'better'の一連の機能に依存している。
我々のモデルに依存しないアプローチは、異なるGNNアーキテクチャで生成された説明を改善し、このプロセスを駆動するためにインスタンスベースの説明器を使用することができます。
ノードとグラフの分類のための合成および実世界のデータセットの実験は、異なるアルゴリズムによって一貫して説明しやすいモデルを作ることができることを示している。
さらに、この説明可能性の増大はモデルの正確性に何のコストもかからない。
関連論文リスト
- How Graph Neural Networks Learn: Lessons from Training Dynamics [80.41778059014393]
グラフニューラルネットワーク(GNN)の関数空間におけるトレーニングダイナミクスについて検討する。
GNNの勾配勾配勾配最適化は暗黙的にグラフ構造を利用して学習関数を更新する。
この発見は、学習したGNN関数が一般化した時期と理由に関する新たな解釈可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-08T10:19:56Z) - Structural Explanations for Graph Neural Networks using HSIC [21.929646888419914]
グラフニューラルネットワーク(GNN)は、グラフィカルなタスクをエンドツーエンドで処理するニューラルネットワークの一種である。
GNNの複雑なダイナミクスは、グラフの特徴のどの部分が予測に強く寄与しているかを理解するのを困難にしている。
本研究では,グラフ内の重要な構造を検出するために,フレキシブルモデルに依存しない説明法を提案する。
論文 参考訳(メタデータ) (2023-02-04T09:46:47Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Edge-Level Explanations for Graph Neural Networks by Extending
Explainability Methods for Convolutional Neural Networks [33.20913249848369]
グラフニューラルネットワーク(GNN)は、グラフデータを入力として扱うディープラーニングモデルであり、トラフィック予測や分子特性予測といった様々なタスクに適用される。
本稿では,CNNに対する説明可能性の手法として,LIME(Local Interpretable Model-Agnostic Explanations)やGradient-Based Saliency Maps,Gradient-Weighted Class Activation Mapping(Grad-CAM)をGNNに拡張する。
実験結果から,LIMEに基づくアプローチは実環境における複数のタスクに対する最も効率的な説明可能性手法であり,その状態においても優れていたことが示唆された。
論文 参考訳(メタデータ) (2021-11-01T06:27:29Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。