論文の概要: Interpreting Graph Neural Networks with In-Distributed Proxies
- arxiv url: http://arxiv.org/abs/2402.02036v1
- Date: Sat, 3 Feb 2024 05:19:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 22:40:38.030854
- Title: Interpreting Graph Neural Networks with In-Distributed Proxies
- Title(参考訳): In-Distributed Proxiesを用いたグラフニューラルネットワークの解釈
- Authors: Zhuomin Chen, Jiaxing Zhang, Jingchao Ni, Xiaoting Li, Yuchen Bian, Md
Mezbahul Islam, Ananda Mohan Mondal, Hua Wei, Dongsheng Luo
- Abstract要約: GNNの説明可能性のための一般的なパラダイムは、ラベルを元のグラフと比較することで説明可能な部分グラフを特定することである。
この課題は、トレーニングセットの元のグラフから説明可能なサブグラフのセットへの相当な分布シフトのため、難しい。
本稿では,学習データの分布を示す説明可能な部分グラフのプロキシグラフを生成する手法を提案する。
- 参考スコア(独自算出の注目度): 18.302512185725366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have become a building block in graph data
processing, with wide applications in critical domains. The growing needs to
deploy GNNs in high-stakes applications necessitate explainability for users in
the decision-making processes. A popular paradigm for the explainability of
GNNs is to identify explainable subgraphs by comparing their labels with the
ones of original graphs. This task is challenging due to the substantial
distributional shift from the original graphs in the training set to the set of
explainable subgraphs, which prevents accurate prediction of labels with the
subgraphs. To address it, in this paper, we propose a novel method that
generates proxy graphs for explainable subgraphs that are in the distribution
of training data. We introduce a parametric method that employs graph
generators to produce proxy graphs. A new training objective based on
information theory is designed to ensure that proxy graphs not only adhere to
the distribution of training data but also preserve essential explanatory
factors. Such generated proxy graphs can be reliably used for approximating the
predictions of the true labels of explainable subgraphs. Empirical evaluations
across various datasets demonstrate our method achieves more accurate
explanations for GNNs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフデータ処理においてビルディングブロックとなり、重要な領域で広く応用されている。
高度なアプリケーションにGNNをデプロイする必要性の高まりは、意思決定プロセスにおけるユーザ説明可能性を必要としている。
GNNの説明可能性のための一般的なパラダイムは、ラベルを元のグラフと比較することで説明可能な部分グラフを特定することである。
この課題は、トレーニングセット内の元のグラフから説明可能なサブグラフの集合へのかなりの分布シフトのため、サブグラフによるラベルの正確な予測が困難である。
そこで本稿では,トレーニングデータの分布にある説明可能な部分グラフに対して,プロキシグラフを生成する新しい手法を提案する。
グラフ生成器を用いてプロキシグラフを生成するパラメトリック手法を提案する。
情報理論に基づく新たなトレーニング目的は、プロキシグラフがトレーニングデータの分布に従属するだけでなく、重要な説明因子も保持することを保証する。
このような生成されたプロキシグラフは、説明可能なサブグラフの真のラベルの予測を近似するために確実に使用できる。
提案手法は, GNNのより正確な説明が可能であることを示す。
関連論文リスト
- PAC Learnability under Explanation-Preserving Graph Perturbations [15.83659369727204]
グラフニューラルネットワーク(GNN)はグラフ上で動作し、グラフ構造化データの複雑な関係と依存関係を活用する。
グラフ説明は、その分類ラベルに関して入力グラフの「ほぼ」統計量である部分グラフである。
本研究は、GNNの設計と訓練において、そのような摂動不変性を利用する2つの方法を検討する。
論文 参考訳(メタデータ) (2024-02-07T17:23:15Z) - Graph Condensation via Receptive Field Distribution Matching [61.71711656856704]
本稿では,元のグラフを表す小さなグラフの作成に焦点をあてる。
我々は、元のグラフを受容体の分布とみなし、受容体が同様の分布を持つ小さなグラフを合成することを目的としている。
論文 参考訳(メタデータ) (2022-06-28T02:10:05Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - On Explainability of Graph Neural Networks via Subgraph Explorations [48.56936527708657]
本稿では,グラフニューラルネットワーク(GNN)を説明するための新しい手法,SubgraphXを提案する。
我々の研究は,GNNのサブグラフを明示的に識別する最初の試みである。
論文 参考訳(メタデータ) (2021-02-09T22:12:26Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。