論文の概要: Beyond Message Passing: A Symbolic Alternative for Expressive and Interpretable Graph Learning
- arxiv url: http://arxiv.org/abs/2602.16947v1
- Date: Wed, 18 Feb 2026 23:25:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.510664
- Title: Beyond Message Passing: A Symbolic Alternative for Expressive and Interpretable Graph Learning
- Title(参考訳): Beyond Message Passing: 表現的で解釈可能なグラフ学習のためのシンボリックな代替手段
- Authors: Chuqin Geng, Li Zhang, Haolin Ye, Ziyu Zhao, Yuhe Jiang, Tara Saba, Xinyu Wang, Xujie Si,
- Abstract要約: 自己説明可能なグラフニューラルネットワーク(GNN)のためのシンボリックフレームワークであるSymGraphを提案する。
連続メッセージパッシングを離散構造ハッシュとトポロジカルロールに基づくアグリゲーションに置き換えることで、理論的には1-WL障壁を超えます。
我々は,SymGraphが最先端の性能を実現し,既存の自己説明可能なGNNよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 12.70345169123999
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have become essential in high-stakes domains such as drug discovery, yet their black-box nature remains a significant barrier to trustworthiness. While self-explainable GNNs attempt to bridge this gap, they often rely on standard message-passing backbones that inherit fundamental limitations, including the 1-Weisfeiler-Lehman (1-WL) expressivity barrier and a lack of fine-grained interpretability. To address these challenges, we propose SymGraph, a symbolic framework designed to transcend these constraints. By replacing continuous message passing with discrete structural hashing and topological role-based aggregation, our architecture theoretically surpasses the 1-WL barrier, achieving superior expressiveness without the overhead of differentiable optimization. Extensive empirical evaluations demonstrate that SymGraph achieves state-of-the-art performance, outperforming existing self-explainable GNNs. Notably, SymGraph delivers 10x to 100x speedups in training time using only CPU execution. Furthermore, SymGraph generates rules with superior semantic granularity compared to existing rule-based methods, offering great potential for scientific discovery and explainable AI.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、薬物発見などの高い領域において必須となっているが、そのブラックボックスの性質は信頼性にとって重要な障壁である。
自己説明可能なGNNはこのギャップを埋めようとしているが、1-Weisfeiler-Lehman (1-WL)の表現障壁やきめ細かい解釈性の欠如など、基本的な制限を継承する標準的なメッセージパスバックボーンに依存していることが多い。
これらの課題に対処するために、これらの制約を超越するように設計されたシンボリックフレームワークであるSymGraphを提案する。
連続メッセージパッシングを離散的な構造的ハッシュとトポロジカルな役割に基づく集約に置き換えることで、理論的には1-WL障壁を超え、微分可能な最適化のオーバーヘッドを伴わずに優れた表現性を実現する。
大規模な実証実験により、SymGraphは最先端のパフォーマンスを達成し、既存の自己説明可能なGNNよりも優れていることが示された。
特に、SymGraphはCPU実行のみを使用して、トレーニング時間に10倍から100倍のスピードアップを提供する。
さらに、SymGraphは既存のルールベースの手法と比較して、セマンティックな粒度の優れたルールを生成し、科学的発見と説明可能なAIに大きな可能性を秘めている。
関連論文リスト
- LGAN: An Efficient High-Order Graph Neural Network via the Line Graph Aggregation [12.813630209382426]
グラフ集約ネットワーク(LGAN, Graph Aggregation Network)を提案する。
理論的には、LGANは2-WLよりも高い表現力を持つ。
ベンチマークに関する実証的な評価では、LGANは最先端のk-WLベースのGNNよりも優れており、より優れた解釈性を提供している。
論文 参考訳(メタデータ) (2025-12-11T15:23:46Z) - GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - What Expressivity Theory Misses: Message Passing Complexity for GNNs [51.20749443004513]
我々は、ほとんどの実世界のタスクにおいて高い表現性は必要ないと論じ、基本的なWLテスト以上の表現性はめったに要求されない。
本稿では,GNNアーキテクチャがメッセージパッシングによって与えられたタスクを解くことの難しさを定量化する手法であるMessage Passing Complexity (MPC)を提案する。
MPCは、表現性理論による理論上の不合理性を保ちながら、オーバースカッシングのような現実的な限界を捉えている。
論文 参考訳(メタデータ) (2025-09-01T08:44:49Z) - Beyond Message Passing: Neural Graph Pattern Machine [50.78679002846741]
本稿では,グラフサブストラクチャから直接学習することで,メッセージパッシングをバイパスする新しいフレームワークであるNeural Graph Pattern Machine(GPM)を紹介する。
GPMはタスク関連グラフパターンを効率的に抽出し、エンコードし、優先順位付けする。
論文 参考訳(メタデータ) (2025-01-30T20:37:47Z) - Boosting Graph Neural Network Expressivity with Learnable Lanczos Constraints [7.605749412696919]
グラフニューラルネットワーク(GNN)はグラフ構造化データの処理に優れるが、リンク予測タスクでは性能が劣ることが多い。
グラフラプラシア行列の固有基底に誘導された部分グラフを埋め込むことによりGNNの表現性を高める新しい手法を提案する。
本研究では,2-WLで区別できないグラフを,効率的な時間的複雑性を維持しながら識別できることを実証する。
論文 参考訳(メタデータ) (2024-08-22T12:22:00Z) - Improving Expressivity of GNNs with Subgraph-specific Factor Embedded
Normalization [30.86182962089487]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱うための学習アーキテクチャの強力なカテゴリとして登場した。
我々は SUbgraph-sPEcific FactoR Embedded Normalization (SuperNorm) と呼ばれる専用プラグアンドプレイ正規化方式を提案する。
論文 参考訳(メタデータ) (2023-05-31T14:37:31Z) - Representation Power of Graph Neural Networks: Improved Expressivity via
Algebraic Analysis [124.97061497512804]
標準グラフニューラルネットワーク (GNN) はWeisfeiler-Lehman (WL) アルゴリズムよりも差別的な表現を生成する。
また、白い入力を持つ単純な畳み込みアーキテクチャは、グラフの閉経路をカウントする同変の特徴を生じさせることを示した。
論文 参考訳(メタデータ) (2022-05-19T18:40:25Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。