論文の概要: Unifying approach to uniform expressivity of graph neural networks
- arxiv url: http://arxiv.org/abs/2602.18409v1
- Date: Fri, 20 Feb 2026 18:18:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.410551
- Title: Unifying approach to uniform expressivity of graph neural networks
- Title(参考訳): グラフニューラルネットワークの均一表現性への統一的アプローチ
- Authors: Huan Luo, Jonni Virtema,
- Abstract要約: グラフニューラルネットワーク (GNN) はしばしば、Weisfeiler-Leman (WL) アルゴリズムと一階述語論理のフラグメントに対応して分析される。
標準のGNNは、すぐ近くの地域やグローバルな読み出しでアグリゲーションを行うのに限られている。
それらの表現性を高めるために、近年、構造情報(例えば、サイクルカウントとサブグラフ特性)を組み込むことが試みられている。
- 参考スコア(独自算出の注目度): 4.640835690336653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The expressive power of Graph Neural Networks (GNNs) is often analysed via correspondence to the Weisfeiler-Leman (WL) algorithm and fragments of first-order logic. Standard GNNs are limited to performing aggregation over immediate neighbourhoods or over global read-outs. To increase their expressivity, recent attempts have been made to incorporate substructural information (e.g. cycle counts and subgraph properties). In this paper, we formalize this architectural trend by introducing Template GNNs (T-GNNs), a generalized framework where node features are updated by aggregating over valid template embeddings from a specified set of graph templates. We propose a corresponding logic, Graded template modal logic (GML(T)), and generalized notions of template-based bisimulation and WL algorithm. We establish an equivalence between the expressive power of T-GNNs and GML(T), and provide a unifying approach for analysing GNN expressivity: we show how standard AC-GNNs and its recent variants can be interpreted as instantiations of T-GNNs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の表現力は、Weisfeiler-Leman(WL)アルゴリズムや一階述語論理の断片と対応してしばしば分析される。
標準のGNNは、すぐ近くの地域やグローバルな読み出しでアグリゲーションを行うのに限られている。
それらの表現性を高めるために、近年、構造情報(例えば、サイクル数とサブグラフ特性)を組み込むことが試みられている。
本稿では,グラフテンプレートの集合から有効なテンプレート埋め込みを集約することでノード機能を更新する汎用フレームワークであるテンプレートGNN(T-GNN)を導入することで,このアーキテクチャトレンドを形式化する。
本稿では,テンプレートベースのビシミュレーションとWLアルゴリズムの一般化概念と,それに対応する論理,グレードテンプレートモーダル論理(GML(T))を提案する。
我々は,T-GNNの表現力とGML(T)の等価性を確立し,GNNの表現力を解析するための統一的アプローチを提供する。
関連論文リスト
- LGAN: An Efficient High-Order Graph Neural Network via the Line Graph Aggregation [12.813630209382426]
グラフ集約ネットワーク(LGAN, Graph Aggregation Network)を提案する。
理論的には、LGANは2-WLよりも高い表現力を持つ。
ベンチマークに関する実証的な評価では、LGANは最先端のk-WLベースのGNNよりも優れており、より優れた解釈性を提供している。
論文 参考訳(メタデータ) (2025-12-11T15:23:46Z) - The Correspondence Between Bounded Graph Neural Networks and Fragments of First-Order Logic [8.430502131775723]
本稿では,一階述語論理(FO)の顕著な断片に対応するGNNアーキテクチャを提案する。
FO内のGNNの論理的表現性を理解するための統一的なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-05-12T19:45:45Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Towards Better Generalization with Flexible Representation of
Multi-Module Graph Neural Networks [0.27195102129094995]
ランダムグラフ生成器を用いて,グラフサイズと構造特性がGNNの予測性能に与える影響について検討する。
本稿では,GNNが未知のグラフに一般化できるかどうかを決定する上で,平均ノード次数が重要な特徴であることを示す。
集約された入力に対して単一の正準非線形変換を一般化することにより、ネットワークが新しいグラフに柔軟に対応可能なマルチモジュールGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-14T12:13:59Z) - Representation Power of Graph Neural Networks: Improved Expressivity via
Algebraic Analysis [124.97061497512804]
標準グラフニューラルネットワーク (GNN) はWeisfeiler-Lehman (WL) アルゴリズムよりも差別的な表現を生成する。
また、白い入力を持つ単純な畳み込みアーキテクチャは、グラフの閉経路をカウントする同変の特徴を生じさせることを示した。
論文 参考訳(メタデータ) (2022-05-19T18:40:25Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - On the approximation capability of GNNs in node
classification/regression tasks [4.141514895639094]
グラフニューラルネットワーク(GNN)は、グラフ処理のための幅広い種類の接続モデルである。
GNNはノード分類/回帰タスクの確率の普遍近似であることを示す。
論文 参考訳(メタデータ) (2021-06-16T17:46:51Z) - Counting Substructures with Higher-Order Graph Neural Networks:
Possibility and Impossibility Results [58.277290855841976]
グラフニューラルネットワーク(GNN)の計算コストと表現力のトレードオフについて検討する。
新しいモデルでは、$k$のサブグラフをカウントでき、低次GNNの既知の制限を克服できることを示す。
いくつかの場合において、提案アルゴリズムは既存の高階$k$-GNNに比べて計算量を大幅に削減することができる。
論文 参考訳(メタデータ) (2020-12-06T03:42:54Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。