論文の概要: Logical Expressiveness of Graph Neural Networks with Hierarchical Node Individualization
- arxiv url: http://arxiv.org/abs/2506.13911v1
- Date: Mon, 16 Jun 2025 18:39:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.210125
- Title: Logical Expressiveness of Graph Neural Networks with Hierarchical Node Individualization
- Title(参考訳): 階層型ノード分割を用いたグラフニューラルネットワークの論理表現性
- Authors: Arie Soeteman, Balder ten Cate,
- Abstract要約: Hierarchical Ego Graph Neural Networks (HEGNN)は、グラフニューラルネットワーク(GNN)の表現的拡張である。
HEGNNは部分グラフ-GNNを一般化し、グラフを同型まで区別できる表現的モデルの階層を形成する。
実験により,HEGNNの実用性を確認し,従来のGNNアーキテクチャと比較した場合の利点を示した。
- 参考スコア(独自算出の注目度): 0.6215404942415159
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose and study Hierarchical Ego Graph Neural Networks (HEGNNs), an expressive extension of graph neural networks (GNNs) with hierarchical node individualization, inspired by the Individualization-Refinement paradigm for graph isomorphism testing. HEGNNs generalize subgraph-GNNs and form a hierarchy of increasingly expressive models that, in the limit, can distinguish graphs up to isomorphism. We provide a logical characterization of HEGNN node classifiers, with and without subgraph restrictions, using graded hybrid logic. This characterization enables us to relate the separating power of HEGNNs to that of higher-order GNNs, GNNs enriched with local homomorphism count features, and color refinement algorithms based on Individualization-Refinement. Our experimental results confirm the practical feasibility of HEGNNs and show benefits in comparison with traditional GNN architectures, both with and without local homomorphism count features.
- Abstract(参考訳): 我々は,グラフ同型テストのためのパーソナライゼーション・リファインメント・パラダイムに着想を得て,階層的ノードの個別化を伴うグラフニューラルネットワーク(GNN)の表現的拡張である階層的エゴグラフニューラルネットワーク(HEGNN)を提案し,研究する。
HEGNNは、部分グラフ-GNNを一般化し、その極限において、同型までグラフを区別できる、より表現力のあるモデルの階層を形成する。
本稿では,HEGNNノード分類器の論理的特徴付けについて述べる。
この特徴は,HEGNNの分離能力と高次GNN,局所準同型数特徴に富んだGNN,およびパーソナライゼーション・リファインメントに基づく色補正アルゴリズムを関連付けることができる。
実験により, HEGNNの実用性を確認し, 局所準同型数特徴と非局所準同型数特徴の両面において, 従来のGNNアーキテクチャと比較して有益であることを示す。
関連論文リスト
- Permutation-Invariant Graph Partitioning:How Graph Neural Networks Capture Structural Interactions? [2.7398542529968477]
グラフニューラルネットワーク(GNN)は、グラフ関連学習タスクの基盤となるための道を開いた。
しかし、グラフ内の構造的相互作用を捕捉するGNNの能力は、まだ解明されていない。
構造的相互作用の学習において,GNNの表現力を効率的に向上する新しいアーキテクチャであるグラフ分割ニューラルネットワーク(GPNN)を提案する。
論文 参考訳(メタデータ) (2023-12-14T06:08:35Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Representation Power of Graph Neural Networks: Improved Expressivity via
Algebraic Analysis [124.97061497512804]
標準グラフニューラルネットワーク (GNN) はWeisfeiler-Lehman (WL) アルゴリズムよりも差別的な表現を生成する。
また、白い入力を持つ単純な畳み込みアーキテクチャは、グラフの閉経路をカウントする同変の特徴を生じさせることを示した。
論文 参考訳(メタデータ) (2022-05-19T18:40:25Z) - Incorporating Heterophily into Graph Neural Networks for Graph Classification [6.709862924279403]
グラフニューラルネットワーク(GNN)は、しばしばグラフ分類において強いホモフィリを仮定し、ヘテロフィリを考えることは滅多にない。
We developed a novel GNN architecture called IHGNN (short for Incorporated Heterophily into Graph Neural Networks)
我々は、様々なグラフデータセット上でIHGNNを実証的に検証し、グラフ分類のための最先端のGNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-15T06:48:35Z) - Motif Graph Neural Network [32.659902358658755]
グラフニューラルネットワーク(GNN)は、グラフ埋め込みアプローチで最も一般的なモデルである。
近隣の集約パラダイムにおける標準GNNは、高階グラフ構造を区別する際、限定的な識別力に悩まされる。
我々は高次構造をよりよく捉えるための新しいフレームワークである Motif Graph Neural Network (MGNN) を提案する。
論文 参考訳(メタデータ) (2021-12-30T02:57:36Z) - On the approximation capability of GNNs in node
classification/regression tasks [4.141514895639094]
グラフニューラルネットワーク(GNN)は、グラフ処理のための幅広い種類の接続モデルである。
GNNはノード分類/回帰タスクの確率の普遍近似であることを示す。
論文 参考訳(メタデータ) (2021-06-16T17:46:51Z) - Towards Expressive Graph Representation [16.17079730998607]
グラフニューラルネットワーク(GNN)は、各ノードの近傍をノード埋め込みに集約する。
GNNにおける近傍集約のための連続的入射集合関数を設計するための理論的枠組みを提案する。
複数のベンチマークデータセットからグラフ分類を行うために提案した表現型GNNを検証する。
論文 参考訳(メタデータ) (2020-10-12T03:13:41Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。