論文の概要: Towards Faithful Class-level Self-explainability in Graph Neural Networks by Subgraph Dependencies
- arxiv url: http://arxiv.org/abs/2508.11513v1
- Date: Fri, 15 Aug 2025 14:44:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:24.051572
- Title: Towards Faithful Class-level Self-explainability in Graph Neural Networks by Subgraph Dependencies
- Title(参考訳): グラフニューラルネットワークにおけるグラフ依存による忠実なクラスレベルの自己説明可能性を目指して
- Authors: Fanzhen Liu, Xiaoxiao Ma, Jian Yang, Alsharif Abuadbba, Kristen Moore, Surya Nepal, Cecile Paris, Quan Z. Sheng, Jia Wu,
- Abstract要約: 最近の研究は、トレーニングの一部として説明を生成するグラフニューラルネットワーク(GNN)を導入している。
ProGNNやPGIBのようないくつかのモデルは、クラス固有のプロトタイプへの道筋を提供する。
本稿では,クラスレベルの説明を学習し,一般化する,自己説明可能なGNNを提案する。
- 参考スコア(独自算出の注目度): 38.551080206570965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Enhancing the interpretability of graph neural networks (GNNs) is crucial to ensure their safe and fair deployment. Recent work has introduced self-explainable GNNs that generate explanations as part of training, improving both faithfulness and efficiency. Some of these models, such as ProtGNN and PGIB, learn class-specific prototypes, offering a potential pathway toward class-level explanations. However, their evaluations focus solely on instance-level explanations, leaving open the question of whether these prototypes meaningfully generalize across instances of the same class. In this paper, we introduce GraphOracle, a novel self-explainable GNN framework designed to generate and evaluate class-level explanations for GNNs. Our model jointly learns a GNN classifier and a set of structured, sparse subgraphs that are discriminative for each class. We propose a novel integrated training that captures graph$\unicode{x2013}$subgraph$\unicode{x2013}$prediction dependencies efficiently and faithfully, validated through a masking-based evaluation strategy. This strategy enables us to retroactively assess whether prior methods like ProtGNN and PGIB deliver effective class-level explanations. Our results show that they do not. In contrast, GraphOracle achieves superior fidelity, explainability, and scalability across a range of graph classification tasks. We further demonstrate that GraphOracle avoids the computational bottlenecks of previous methods$\unicode{x2014}$like Monte Carlo Tree Search$\unicode{x2014}$by using entropy-regularized subgraph selection and lightweight random walk extraction, enabling faster and more scalable training. These findings position GraphOracle as a practical and principled solution for faithful class-level self-explainability in GNNs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の解釈可能性を高めることは、安全で公正なデプロイメントを保証するために不可欠である。
最近の研究は、自己説明可能なGNNを導入し、トレーニングの一部として説明を生成し、忠実さと効率性の両方を改善している。
これらのモデルのいくつか、例えばProtGNNやPGIBはクラス固有のプロトタイプを学び、クラスレベルの説明への潜在的経路を提供する。
しかし、それらの評価はインスタンスレベルの説明にのみ焦点をあてており、これらのプロトタイプが同一クラスのインスタンスに対して有意義に一般化するかどうかという疑問が残る。
本稿では,GNNのクラスレベル説明の生成と評価を目的とした,新しい自己説明可能なGNNフレームワークであるGraphOracleを紹介する。
モデルでは,GNN分類器と,クラス毎に識別可能な,構造化されたスパース部分グラフの集合を共同で学習する。
本稿では,グラフ$\unicode{x2013}$subgraph$\unicode{x2013}$prediction依存性を効率的にかつ忠実に取得し,マスキングに基づく評価戦略によって検証する新しい統合トレーニングを提案する。
この戦略により,ProtGNNやPGIBといった従来の手法が効果的なクラスレベルの説明を提供するかどうかを遡って評価することができる。
我々の結果はそうでないことを示している。
対照的に、GraphOracleは、さまざまなグラフ分類タスクにおける優れた忠実さ、説明可能性、スケーラビリティを実現している。
さらに、GraphOracleはエントロピー規則化されたサブグラフ選択と軽量なランダムウォーク抽出を用いて、従来手法の計算ボトルネックを回避し、より高速でスケーラブルなトレーニングを可能にすることを実証した。
これらの知見は、グラフオラクルをGNNにおける忠実なクラスレベルの自己説明可能性のための実用的で原則化されたソリューションと位置づけている。
関連論文リスト
- View-based Explanations for Graph Neural Networks [27.19300566616961]
本稿では,表現のためのグラフビューを生成する新しいパラダイムであるGVEXを提案する。
この戦略は近似比が1/2であることを示す。
第2のアルゴリズムは、インプットノードストリームへの単一パスをバッチで実行し、説明ビューを漸進的に維持する。
論文 参考訳(メタデータ) (2024-01-04T06:20:24Z) - How Graph Neural Networks Learn: Lessons from Training Dynamics [80.41778059014393]
グラフニューラルネットワーク(GNN)の関数空間におけるトレーニングダイナミクスについて検討する。
GNNの勾配勾配勾配最適化は暗黙的にグラフ構造を利用して学習関数を更新する。
この発見は、学習したGNN関数が一般化した時期と理由に関する新たな解釈可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-08T10:19:56Z) - PAGE: Prototype-Based Model-Level Explanations for Graph Neural Networks [12.16789930553124]
The Prototype-bAsed GNN-Explainer (Page) is a novel model-level explanation for graph classification。
Pageは、高いマッチングノードを反復的に検索することで、共通のサブグラフパターンを発見する。
6つのグラフ分類データセットを用いて、PAGEが最先端のモデルレベルの説明法よりも質的に定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-10-31T09:10:06Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - A Meta-Learning Approach for Training Explainable Graph Neural Networks [10.11960004698409]
本稿では,GNNの学習時間における説明可能性向上のためのメタラーニングフレームワークを提案する。
我々のフレームワークは、例えばノード分類などの元のタスクを解決するためにモデルを共同で訓練し、下流アルゴリズムで容易に処理可能な出力を提供する。
我々のモデルに依存しないアプローチは、異なるGNNアーキテクチャで生成された説明を改善し、このプロセスを駆動するためにインスタンスベースの説明器を使用することができます。
論文 参考訳(メタデータ) (2021-09-20T11:09:10Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。