論文の概要: Enhancing Logical Expressiveness in Graph Neural Networks via Path-Neighbor Aggregation
- arxiv url: http://arxiv.org/abs/2511.07994v1
- Date: Wed, 12 Nov 2025 01:33:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.586848
- Title: Enhancing Logical Expressiveness in Graph Neural Networks via Path-Neighbor Aggregation
- Title(参考訳): 経路近傍アグリゲーションによるグラフニューラルネットワークの論理表現性向上
- Authors: Han Yu, Xiaojuan Zhao, Aiping Li, Kai Chen, Ziniu Liu, Zhichao Peng,
- Abstract要約: 本稿では,GNNの論理的表現力を高めるため,PN-GNN(Path-Neighbor enhanced GNN)を提案する。
まず,既存のGNN手法の論理表現力を分析し,これらの手法の欠点を指摘する。
そこで理論的にPN-GNNの論理表現力について検討し、C-GNNよりも強い表現力を持つだけでなく、$(k+1)$-hop論理表現性が$k$-hopよりも厳密に優れていることを示す。
- 参考スコア(独自算出の注目度): 22.086161213961244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) can effectively model structural information of graphs, making them widely used in knowledge graph (KG) reasoning. However, existing studies on the expressive power of GNNs mainly focuses on simple single-relation graphs, and there is still insufficient discussion on the power of GNN to express logical rules in KGs. How to enhance the logical expressive power of GNNs is still a key issue. Motivated by this, we propose Path-Neighbor enhanced GNN (PN-GNN), a method to enhance the logical expressive power of GNN by aggregating node-neighbor embeddings on the reasoning path. First, we analyze the logical expressive power of existing GNN-based methods and point out the shortcomings of the expressive power of these methods. Then, we theoretically investigate the logical expressive power of PN-GNN, showing that it not only has strictly stronger expressive power than C-GNN but also that its $(k+1)$-hop logical expressiveness is strictly superior to that of $k$-hop. Finally, we evaluate the logical expressive power of PN-GNN on six synthetic datasets and two real-world datasets. Both theoretical analysis and extensive experiments confirm that PN-GNN enhances the expressive power of logical rules without compromising generalization, as evidenced by its competitive performance in KG reasoning tasks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフの構造情報を効果的にモデル化することができ、知識グラフ(KG)推論で広く使用される。
しかし、GNNの表現力に関する既存の研究は、主に単純な単関係グラフに焦点を当てており、KGにおける論理規則を表現するためのGNNの力についてはまだ不十分な議論が残っている。
GNNの論理的表現力を高める方法はまだ重要な問題である。
そこで我々はPN-GNN(Path-Neighbor enhanced GNN)を提案する。これは、ノード近傍の埋め込みを推論経路に集約することで、GNNの論理的表現力を高める方法である。
まず,既存のGNN手法の論理表現力を分析し,これらの手法の表現力の欠点を指摘する。
そこで理論的にPN-GNNの論理表現力について検討し、C-GNNよりも強い表現力を持つだけでなく、$(k+1)$-hop論理表現性が$k$-hopよりも厳密に優れていることを示す。
最後に,PN-GNNの論理表現力を6つの合成データセットと2つの実世界のデータセットで評価した。
理論解析と広範な実験の両方で、PN-GNNは、KG推論タスクにおける競合性能によって証明されるように、一般化を損なうことなく論理規則の表現力を高めることが確認されている。
関連論文リスト
- On The Expressive Power of GNN Derivatives [36.813086027407714]
高次導波性GNN(HOD-GNN)は、メッセージパッシングニューラルネットワーク(MPNN)の表現性を高める新しい方法である。
得られたアーキテクチャファミリーの表現力は、WL階層と一致していることを示す。
計算効率を向上させるために,MPNNの高次微分を計算するためのメッセージパッシングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-10-02T21:00:20Z) - The Correspondence Between Bounded Graph Neural Networks and Fragments of First-Order Logic [8.430502131775723]
本稿では,一階述語論理(FO)の顕著な断片に対応するGNNアーキテクチャを提案する。
FO内のGNNの論理的表現性を理解するための統一的なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-05-12T19:45:45Z) - Rethinking GNN Expressive Power from a Distributed Computational Model Perspective [29.47675861430167]
事前処理と後処理を明確に指定した修正 CONGEST モデルなど,明確に定義された計算モデルを使用することによって,GNN 表現性を分析するためのより健全なフレームワークが提供される,と我々は主張する。
制約のない事前処理を許可したり、外部に計算された機能を組み込んだりすることは、これらの事前計算によって表現性が向上し、時には問題を引き起こす可能性があることを示す。
これらの否定的な結果にもかかわらず、計算モデルの観点から仮想ノードとエッジの効果を特徴付ける肯定的な結果も提示する。
論文 参考訳(メタデータ) (2024-10-02T08:01:50Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Understanding Expressivity of GNN in Rule Learning [36.04983130825589]
ルール学習は知識グラフ(KG)推論を改善するために重要である。
テールエンティティスコアリングを持つGNNは、共通のフレームワークに統合される。
そこで我々は,KG推論におけるルールをより多く学習するための新しいラベリング戦略を提案する。
論文 参考訳(メタデータ) (2023-03-22T04:49:00Z) - Representation Power of Graph Neural Networks: Improved Expressivity via
Algebraic Analysis [124.97061497512804]
標準グラフニューラルネットワーク (GNN) はWeisfeiler-Lehman (WL) アルゴリズムよりも差別的な表現を生成する。
また、白い入力を持つ単純な畳み込みアーキテクチャは、グラフの閉経路をカウントする同変の特徴を生じさせることを示した。
論文 参考訳(メタデータ) (2022-05-19T18:40:25Z) - Expressiveness and Approximation Properties of Graph Neural Networks [6.1323142294300625]
Wesfeiler-Leman (WL) テストの観点で GNN の分離パワーのバウンダリを得るためのエレガントな方法を提供する。
我々はテンソル言語を用いて、MPNNの自然な拡張である高次メッセージパッシングニューラルネットワーク(またはk-MPNN)を定義する。
提案手法は,GNNアーキテクチャ設計者がGNNの分離パワーを解析できるツールボックスを提供する。
論文 参考訳(メタデータ) (2022-04-10T11:33:04Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z) - Efficient Probabilistic Logic Reasoning with Graph Neural Networks [63.099999467118245]
マルコフ論理ネットワーク(MLN)は、多くの知識グラフ問題に対処するために用いられる。
MLNの推論は計算集約的であり、MLNの産業規模での応用は非常に困難である。
本稿では,表現力とモデルの単純さとのバランスのよいグラフニューラルネット(GNN)モデルであるExpressGNNを提案する。
論文 参考訳(メタデータ) (2020-01-29T23:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。