論文の概要: Sound Logical Explanations for Mean Aggregation Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2511.11593v1
- Date: Mon, 27 Oct 2025 13:23:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.179627
- Title: Sound Logical Explanations for Mean Aggregation Graph Neural Networks
- Title(参考訳): 平均集約グラフニューラルネットワークのための音響論理的説明法
- Authors: Matthew Morris, Ian Horrocks,
- Abstract要約: グラフニューラルネットワーク(GNN)は知識グラフの補完に頻繁に使用される。
平均アグリゲーションと非負重み(MAGNN)を考慮したGNNの検討
実験の結果, 平均集約GNNの非負重みの制限は, 標準帰納的ベンチマークにおいて同等あるいは改善されることがわかった。
- 参考スコア(独自算出の注目度): 7.08300385454159
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) are frequently used for knowledge graph completion. Their black-box nature has motivated work that uses sound logical rules to explain predictions and characterise their expressivity. However, despite the prevalence of GNNs that use mean as an aggregation function, explainability and expressivity results are lacking for them. We consider GNNs with mean aggregation and non-negative weights (MAGNNs), proving the precise class of monotonic rules that can be sound for them, as well as providing a restricted fragment of first-order logic to explain any MAGNN prediction. Our experiments show that restricting mean-aggregation GNNs to have non-negative weights yields comparable or improved performance on standard inductive benchmarks, that sound rules are obtained in practice, that insightful explanations can be generated in practice, and that the sound rules can expose issues in the trained models.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は知識グラフの補完に頻繁に使用される。
彼らのブラックボックスの性質は、予測を説明し、その表現性を特徴づけるために健全な論理的規則を使用する動機付けのある仕事である。
しかし, 集約関数として平均を用いたGNNが普及しているにもかかわらず, 説明可能性や表現性が欠如している。
平均アグリゲーションと非負重み (MAGNN) を持つ GNN について検討し、それらにとって健全な単調な規則の正確なクラスを証明するとともに、MAGNN 予測を説明するための一階述語論理の制限された断片を提供する。
実験により,非負の重みを持つ平均集約型GNNの制限は,標準帰納的ベンチマークにおいて同等あるいは改善された性能を示すこと,音響規則が実際に得られること,洞察に富んだ説明を実際に生成できること,そして,音響規則が訓練されたモデルで問題を明らかにすることができることを示した。
関連論文リスト
- Enhancing Logical Expressiveness in Graph Neural Networks via Path-Neighbor Aggregation [22.086161213961244]
本稿では,GNNの論理的表現力を高めるため,PN-GNN(Path-Neighbor enhanced GNN)を提案する。
まず,既存のGNN手法の論理表現力を分析し,これらの手法の欠点を指摘する。
そこで理論的にPN-GNNの論理表現力について検討し、C-GNNよりも強い表現力を持つだけでなく、$(k+1)$-hop論理表現性が$k$-hopよりも厳密に優れていることを示す。
論文 参考訳(メタデータ) (2025-11-11T08:59:10Z) - Logical Expressivity and Explanations for Monotonic GNNs with Scoring Functions [10.533348468499826]
グラフニューラルネットワーク(GNN)はリンク予測のタスクによく使用される。
GNNとスコアリング関数がモノトニックにどのように適応できるかを示す。
論文 参考訳(メタデータ) (2025-08-14T15:56:48Z) - Relational Graph Convolutional Networks Do Not Learn Sound Rules [13.66949379381985]
グラフニューラルネットワーク(GNN)は、知識グラフ(KG)の欠落した事実を予測するために頻繁に使用される。
最近の研究は、広く使われている論理ベースの形式主義であるDatalogを使って、それらの予測を説明することを目的としている。
我々は、KGs、R-GCNの最も人気のあるGNNアーキテクチャの1つを考察し、その予測を説明するためのルールを抽出する2つの方法を提案する。
論文 参考訳(メタデータ) (2024-08-14T15:46:42Z) - Understanding Expressivity of GNN in Rule Learning [36.04983130825589]
ルール学習は知識グラフ(KG)推論を改善するために重要である。
テールエンティティスコアリングを持つGNNは、共通のフレームワークに統合される。
そこで我々は,KG推論におけるルールをより多く学習するための新しいラベリング戦略を提案する。
論文 参考訳(メタデータ) (2023-03-22T04:49:00Z) - Representation Power of Graph Neural Networks: Improved Expressivity via
Algebraic Analysis [124.97061497512804]
標準グラフニューラルネットワーク (GNN) はWeisfeiler-Lehman (WL) アルゴリズムよりも差別的な表現を生成する。
また、白い入力を持つ単純な畳み込みアーキテクチャは、グラフの閉経路をカウントする同変の特徴を生じさせることを示した。
論文 参考訳(メタデータ) (2022-05-19T18:40:25Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - ProtGNN: Towards Self-Explaining Graph Neural Networks [12.789013658551454]
本稿では,プロトタイプ学習とGNNを組み合わせたプロトタイプグラフニューラルネットワーク(ProtGNN)を提案する。
ProtGNNとProtGNN+は、非解釈不能のものと同等の精度を保ちながら、本質的に解釈可能である。
論文 参考訳(メタデータ) (2021-12-02T01:16:29Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Efficient Probabilistic Logic Reasoning with Graph Neural Networks [63.099999467118245]
マルコフ論理ネットワーク(MLN)は、多くの知識グラフ問題に対処するために用いられる。
MLNの推論は計算集約的であり、MLNの産業規模での応用は非常に困難である。
本稿では,表現力とモデルの単純さとのバランスのよいグラフニューラルネット(GNN)モデルであるExpressGNNを提案する。
論文 参考訳(メタデータ) (2020-01-29T23:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。