論文の概要: Logical Expressivity and Explanations for Monotonic GNNs with Scoring Functions
- arxiv url: http://arxiv.org/abs/2508.14091v1
- Date: Thu, 14 Aug 2025 15:56:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.179332
- Title: Logical Expressivity and Explanations for Monotonic GNNs with Scoring Functions
- Title(参考訳): Scoring関数を持つ単調GNNの論理的表現性と説明
- Authors: Matthew Morris, David J. Tena Cucala, Bernardo Cuenca Grau,
- Abstract要約: グラフニューラルネットワーク(GNN)はリンク予測のタスクによく使用される。
GNNとスコアリング関数がモノトニックにどのように適応できるかを示す。
- 参考スコア(独自算出の注目度): 10.533348468499826
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) are often used for the task of link prediction: predicting missing binary facts in knowledge graphs (KGs). To address the lack of explainability of GNNs on KGs, recent works extract Datalog rules from GNNs with provable correspondence guarantees. The extracted rules can be used to explain the GNN's predictions; furthermore, they can help characterise the expressive power of various GNN models. However, these works address only a form of link prediction based on a restricted, low-expressivity graph encoding/decoding method. In this paper, we consider a more general and popular approach for link prediction where a scoring function is used to decode the GNN output into fact predictions. We show how GNNs and scoring functions can be adapted to be monotonic, use the monotonicity to extract sound rules for explaining predictions, and leverage existing results about the kind of rules that scoring functions can capture. We also define procedures for obtaining equivalent Datalog programs for certain classes of monotonic GNNs with scoring functions. Our experiments show that, on link prediction benchmarks, monotonic GNNs and scoring functions perform well in practice and yield many sound rules.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、知識グラフ(KG)に欠けているバイナリ事実を予測するリンク予測のタスクによく使用される。
KGにおけるGNNの説明可能性の欠如に対処するため、近年の研究では、証明可能な対応保証付きGNNからデータログルールを抽出している。
抽出されたルールは、GNNの予測を説明するために使用することができ、さらに、様々なGNNモデルの表現力を特徴づけるのに役立つ。
しかし、これらの研究は制限付き低表現率グラフ符号化/復号法に基づくリンク予測の一形態にのみ対応している。
本稿では,GNN出力を実数予測にデコードするためにスコアリング関数を用いるリンク予測に対して,より汎用的で一般的な手法を検討する。
本稿では,GNNとスコアリング関数をモノトニックに適合させる方法を示し,そのモノトニック性を用いて予測を説明するための音響規則を抽出し,スコアリング関数がキャプチャできるルールの種類に関する既存の結果を活用する。
また、スコアリング機能を持つモノトニックGNNのクラスに対して、同等のDatalogプログラムを取得する手順も定義する。
実験の結果,リンク予測ベンチマークでは,単調なGNNとスコアリング関数が実際によく機能し,多くの音響規則が得られた。
関連論文リスト
- Global Graph Counterfactual Explanation: A Subgraph Mapping Approach [54.42907350881448]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
論文 参考訳(メタデータ) (2024-10-25T21:39:05Z) - Relational Graph Convolutional Networks Do Not Learn Sound Rules [13.66949379381985]
グラフニューラルネットワーク(GNN)は、知識グラフ(KG)の欠落した事実を予測するために頻繁に使用される。
最近の研究は、広く使われている論理ベースの形式主義であるDatalogを使って、それらの予測を説明することを目的としている。
我々は、KGs、R-GCNの最も人気のあるGNNアーキテクチャの1つを考察し、その予測を説明するためのルールを抽出する2つの方法を提案する。
論文 参考訳(メタデータ) (2024-08-14T15:46:42Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks [25.94529851210956]
本稿では,異なるグラフニューラルネットワーク(GNN)に対して,メッセージパッシング方式であるGNNInterpreterに従うモデルに依存しないモデルレベルの説明手法を提案する。
GNNInterpreterは、GNNが検出しようとする最も識別性の高いグラフパターンを生成する確率的生成グラフ分布を学習する。
既存の研究と比較すると、GNNInterpreterはノードとエッジの異なるタイプの説明グラフを生成する際に、より柔軟で計算的に効率的である。
論文 参考訳(メタデータ) (2022-09-15T07:45:35Z) - ProtGNN: Towards Self-Explaining Graph Neural Networks [12.789013658551454]
本稿では,プロトタイプ学習とGNNを組み合わせたプロトタイプグラフニューラルネットワーク(ProtGNN)を提案する。
ProtGNNとProtGNN+は、非解釈不能のものと同等の精度を保ちながら、本質的に解釈可能である。
論文 参考訳(メタデータ) (2021-12-02T01:16:29Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - Graph Sequential Network for Reasoning over Sequences [38.766982479196926]
シーケンスから構築されたグラフよりも推論が必要な場合を考える。
既存のGNNモデルは、まずノード列を固定次元ベクトルに要約し、次にこれらのベクトルにGNNを適用することで、この目標を達成する。
本稿では,グラフシーケンスネットワーク(GSN)と呼ばれる新しいタイプのGNNを提案する。
論文 参考訳(メタデータ) (2020-04-04T19:18:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。