論文の概要: Invariant-Stratified Propagation for Expressive Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2603.01388v1
- Date: Mon, 02 Mar 2026 02:34:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.656103
- Title: Invariant-Stratified Propagation for Expressive Graph Neural Networks
- Title(参考訳): 表現型グラフニューラルネットワークの不変スペクトル伝搬
- Authors: Asela Hevapathige, Ahad N. Zehmakan, Asiri Wijesinghe, Saman Halgamuge,
- Abstract要約: グラフニューラルネットワーク(GNN)は、表現性と構造的不均一性を捉える基本的な制限に直面している。
Invariant-Stratified Propagation (ISP)は、新しいWL変種(ISP-WL)とその効率的なニューラルネットワーク実装(ISPGNN)の両方からなるフレームワークである。
ISPはグラフ不変量に従ってノードを階層化し、階層的な層で処理し、1-WLに見えない構造的区別を明らかにする。
ISPは、高階パターンにおけるノードの構造的位置の違いを定量化し、参加者が一様参加を持つものと異なる役割を担っている相互作用を区別する。
- 参考スコア(独自算出の注目度): 9.192992900110983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) face fundamental limitations in expressivity and capturing structural heterogeneity. Standard message-passing architectures are constrained by the 1-dimensional Weisfeiler-Leman (1-WL) test, unable to distinguish graphs beyond degree sequences, and aggregate information uniformly from neighbors, failing to capture how nodes occupy different structural positions within higher-order patterns. While methods exist to achieve higher expressivity, they incur prohibitive computational costs and lack unified frameworks for flexibly encoding diverse structural properties. To address these limitations, we introduce Invariant-Stratified Propagation (ISP), a framework comprising both a novel WL variant (ISP-WL) and its efficient neural network implementation (ISPGNN). ISP stratifies nodes according to graph invariants, processing them in hierarchical strata that reveal structural distinctions invisible to 1-WL. Through hierarchical structural heterogeneity encoding, ISP quantifies differences in nodes' structural positions within higher-order patterns, distinguishing interactions where participants occupy different roles from those with uniform participation. We provide formal theoretical analysis establishing enhanced expressivity beyond 1-WL, convergence guarantees, and inherent resistance to oversmoothing. Extensive experiments across graph classification, node classification, and influence estimation demonstrate consistent improvements over standard architectures and state-of-the-art expressive baselines.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、表現性と構造的不均一性を捕捉する基本的な制限に直面している。
標準的なメッセージパッシングアーキテクチャは、1次元のWeisfeiler-Leman (1-WL) テストによって制約され、グラフを次数列を超えて区別することができず、隣人から一様に情報を収集するが、ノードが高階パターン内の異なる構造的位置を占める様子を捉えない。
高い表現性を達成するための手法は存在するが、それらは禁止的な計算コストを発生させ、多様な構造特性を柔軟に符号化するための統一されたフレームワークを欠いている。
これらの制約に対処するために、新しいWL変種(ISP-WL)と、その効率的なニューラルネットワーク実装(ISPGNN)の両方からなるフレームワークであるInvariant-Stratified Propagation(ISP)を導入する。
ISPはグラフ不変量に従ってノードを階層化し、階層的な層で処理し、1-WLに見えない構造的区別を明らかにする。
階層構造的不均一エンコーディングにより、ISPは高次パターンにおけるノードの構造的位置の違いを定量化し、参加者が一様参加を持つものと異なる役割を担っている相互作用を区別する。
本研究では, 1-WLを超える高発現性, 収束保証, 過密化耐性を確立させる公式な理論的解析法を提案する。
グラフ分類、ノード分類、影響推定の広範な実験は、標準的なアーキテクチャや最先端の表現ベースラインよりも一貫した改善を示している。
関連論文リスト
- Graph Neural Networks with Similarity-Navigated Probabilistic Feature Copying [1.5229257192293202]
本稿では,Axelrodの文化的普及モデルに触発された新しいGNNアーキテクチャであるAxelGNNを提案する。
AxelGNNは、ノードの類似性に基づいて収束や発散を適応的に促進する類似性付き確率的相互作用を取り入れている。
様々なホモフィリ・ヘテロフィリー特性を持つ多種多様なグラフ構造において、一貫して最先端のGNN法を上回り、一致させる。
論文 参考訳(メタデータ) (2025-09-23T14:39:09Z) - Parameter-Free Structural-Diversity Message Passing for Graph Neural Networks [8.462209415744098]
グラフニューラルネットワーク(GNN)はノード分類などの構造化データモデリングタスクにおいて顕著な性能を示した。
本稿では,構造的多様性に基づくパラメータフリーグラフニューラルネットワークフレームワークを提案する。
このフレームワークは構造多様性理論にインスパイアされ、統一された構造多様性メッセージパッシング機構を設計する。
論文 参考訳(メタデータ) (2025-08-27T13:42:45Z) - COMBINEX: A Unified Counterfactual Explainer for Graph Neural Networks via Node Feature and Structural Perturbations [6.894071825948456]
我々は,ノード分類タスクとグラフ分類タスクの両方に対して,対実的な説明を生成する新しいGNN説明器であるCOMBINEXを提案する。
構造的および特徴に基づく変更を独立に扱う従来の方法とは異なり、COMBINEXはエッジとノードの特徴への修正を最適にバランスする。
この統一されたアプローチは、モデルの予測を反転させるために必要な最小限かつ効果的な変更を保証し、現実的で解釈可能な反事実をもたらす。
論文 参考訳(メタデータ) (2025-02-14T12:17:24Z) - Matcha: Mitigating Graph Structure Shifts with Test-Time Adaptation [66.40525136929398]
テスト時間適応(TTA)は、ソースドメインに再アクセスすることなく、トレーニング済みのモデルをターゲットドメインに適応できる能力によって注目を集めている。
グラフの構造シフトへの効果的かつ効率的な適応を目的とした,革新的なフレームワークであるMatchaを提案する。
合成と実世界の両方のデータセットに対するMatchaの有効性を検証し、構造と属性シフトの様々な組み合わせにおける頑健さを実証した。
論文 参考訳(メタデータ) (2024-10-09T15:15:40Z) - Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - SE-GSL: A General and Effective Graph Structure Learning Framework
through Structural Entropy Optimization [67.28453445927825]
グラフニューラルネットワーク(GNN)は、構造的データ学習のデファクトソリューションである。
既存のグラフ構造学習(GSL)フレームワークには、堅牢性と解釈性がない。
本稿では、構造エントロピーと符号化木に抽象化されたグラフ階層を通して、一般的なGSLフレームワークSE-GSLを提案する。
論文 参考訳(メタデータ) (2023-03-17T05:20:24Z) - ASGNN: Graph Neural Networks with Adaptive Structure [41.83813812538167]
本稿では,アダプティブ構造(ASMP)を用いた新しい解釈可能なメッセージパッシング方式を提案する。
ASMPは、異なるレイヤにおけるメッセージパッシングプロセスが動的に調整されたグラフ上で実行可能であるという意味で適応的である。
論文 参考訳(メタデータ) (2022-10-03T15:10:40Z) - Equivariant Subgraph Aggregation Networks [23.26140936226352]
本稿では,この問題に対処するためのEquivariant Subgraph Aggregation Networks (ESAN) という新しいフレームワークを提案する。
2つのグラフはMPNNでは区別できないかもしれないが、しばしば区別可能な部分グラフを含む。
グラフ同型に対する1次元Weisfeiler-Leman(1-WL)テストの新しい変種を開発し、ESANの表現性に対する下界を証明した。
サブグラフ選択ポリシーや同変ニューラルアーキテクチャといった設計選択がアーキテクチャの表現力にどのように影響するかを記述する理論的結果を提供する。
論文 参考訳(メタデータ) (2021-10-06T16:45:07Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。