論文の概要: SES: Bridging the Gap Between Explainability and Prediction of Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2407.11358v2
- Date: Thu, 25 Jul 2024 04:20:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 18:27:52.982422
- Title: SES: Bridging the Gap Between Explainability and Prediction of Graph Neural Networks
- Title(参考訳): SES: グラフニューラルネットワークの説明可能性と予測のギャップを埋める
- Authors: Zhenhua Huang, Kunhao Li, Shaojie Wang, Zhaohong Jia, Wentao Zhu, Sharad Mehrotra,
- Abstract要約: 本稿では、説明可能性と予測のギャップを埋める自己説明型自己教師型グラフニューラルネットワーク(SES)を提案する。
SESは説明可能なトレーニングと予測学習の2つのプロセスから構成される。
- 参考スコア(独自算出の注目度): 13.655670509818144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the Graph Neural Networks' (GNNs) proficiency in analyzing graph data, achieving high-accuracy and interpretable predictions remains challenging. Existing GNN interpreters typically provide post-hoc explanations disjointed from GNNs' predictions, resulting in misrepresentations. Self-explainable GNNs offer built-in explanations during the training process. However, they cannot exploit the explanatory outcomes to augment prediction performance, and they fail to provide high-quality explanations of node features and require additional processes to generate explainable subgraphs, which is costly. To address the aforementioned limitations, we propose a self-explained and self-supervised graph neural network (SES) to bridge the gap between explainability and prediction. SES comprises two processes: explainable training and enhanced predictive learning. During explainable training, SES employs a global mask generator co-trained with a graph encoder and directly produces crucial structure and feature masks, reducing time consumption and providing node feature and subgraph explanations. In the enhanced predictive learning phase, mask-based positive-negative pairs are constructed utilizing the explanations to compute a triplet loss and enhance the node representations by contrastive learning.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)のグラフデータを解析する習熟度にもかかわらず、高精度で解釈可能な予測を実現することは依然として困難である。
既存のGNNインタプリタは、通常、GNNの予測から外れたポストホックな説明を提供し、誤った表現をもたらす。
自己説明可能なGNNは、トレーニングプロセス中にビルトインの説明を提供する。
しかし、予測性能を向上させるために説明結果を利用することができず、ノードの特徴の高品質な説明を提供しず、説明可能な部分グラフを生成するために追加のプロセスを必要とするため、コストがかかる。
上記の制限に対処するため、説明可能性と予測のギャップを埋める自己説明型自己教師型グラフニューラルネットワーク(SES)を提案する。
SESは説明可能なトレーニングと予測学習の2つのプロセスから構成される。
説明可能なトレーニングの間、SESはグラフエンコーダと共同でトレーニングされたグローバルマスクジェネレータを使用し、重要な構造と特徴マスクを直接生成し、時間消費を低減し、ノードの特徴とサブグラフの説明を提供する。
強化された予測学習フェーズでは、マスクベースの正負のペアが3重項損失を計算し、対照的な学習によってノード表現を強化するために説明を利用して構築される。
関連論文リスト
- Towards Few-shot Self-explaining Graph Neural Networks [16.085176689122036]
数ショット設定で予測をサポートするための説明を生成する新しいフレームワークを提案する。
MSE-GNNは説明器と予測器からなる2段階の自己説明構造を採用している。
MSE-GNNは、高品質な説明を生成しながら予測タスクにおいて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2024-08-14T07:31:11Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Toward Multiple Specialty Learners for Explaining GNNs via Online
Knowledge Distillation [0.17842332554022688]
グラフニューラルネットワーク(GNN)は、多くのアプリケーションやシステムにおいてますます普及し、それらの予測を説明する必要がある。
そこで我々はSCALEという新しいGNN説明フレームワークを提案する。
トレーニングにおいて、ブラックボックスGNNモデルは、オンライン知識蒸留パラダイムに基づいて学習者をガイドする。
具体的には、エッジマスキングと再起動手順によるランダムウォークを実行し、グラフレベルとノードレベルの予測の構造的説明を提供する。
論文 参考訳(メタデータ) (2022-10-20T08:44:57Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Towards the Explanation of Graph Neural Networks in Digital Pathology
with Information Flows [67.23405590815602]
グラフニューラルネットワーク(GNN)は、デジタル病理学において広く採用されている。
既存の説明者は、予測に関連する説明的部分グラフを発見する。
説明文は、予測に必要であるだけでなく、最も予測可能な領域を明らかにするのに十分である。
本稿では, IFEXPLAINERを提案する。
論文 参考訳(メタデータ) (2021-12-18T10:19:01Z) - SEEN: Sharpening Explanations for Graph Neural Networks using
Explanations from Neighborhoods [0.0]
本稿では,補助的説明の集約によるノード分類タスクの説明品質の向上手法を提案する。
SEENを適用するにはグラフを変更する必要はなく、さまざまな説明可能性のテクニックで使用することができる。
与えられたグラフからモチーフ参加ノードをマッチングする実験では、説明精度が最大12.71%向上した。
論文 参考訳(メタデータ) (2021-06-16T03:04:46Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。