論文の概要: MoSE: Unveiling Structural Patterns in Graphs via Mixture of Subgraph Experts
- arxiv url: http://arxiv.org/abs/2509.09337v1
- Date: Thu, 11 Sep 2025 10:45:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.341227
- Title: MoSE: Unveiling Structural Patterns in Graphs via Mixture of Subgraph Experts
- Title(参考訳): MoSE: グラフにおける構造パターンの展開 - グラフ専門家の混在を通じて
- Authors: Junda Ye, Zhongbao Zhang, Li Sun, Siqiang Luo,
- Abstract要約: フレキシブルかつ表現力のあるサブグラフベース表現学習のためのサブグラフエキスパート(MoSE)フレームワークの混合
MoSEは匿名のウォークを通じて情報的なサブグラフを抽出し、構造的意味論に基づく専門の専門家に動的にルーティングする。
- 参考スコア(独自算出の注目度): 16.73906351854299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While graph neural networks (GNNs) have achieved great success in learning from graph-structured data, their reliance on local, pairwise message passing restricts their ability to capture complex, high-order subgraph patterns. leading to insufficient structural expressiveness. Recent efforts have attempted to enhance structural expressiveness by integrating random walk kernels into GNNs. However, these methods are inherently designed for graph-level tasks, which limits their applicability to other downstream tasks such as node classification. Moreover, their fixed kernel configurations hinder the model's flexibility in capturing diverse subgraph structures. To address these limitations, this paper proposes a novel Mixture of Subgraph Experts (MoSE) framework for flexible and expressive subgraph-based representation learning across diverse graph tasks. Specifically, MoSE extracts informative subgraphs via anonymous walks and dynamically routes them to specialized experts based on structural semantics, enabling the model to capture diverse subgraph patterns with improved flexibility and interpretability. We further provide a theoretical analysis of MoSE's expressivity within the Subgraph Weisfeiler-Lehman (SWL) Test, proving that it is more powerful than SWL. Extensive experiments, together with visualizations of learned subgraph experts, demonstrate that MoSE not only outperforms competitive baselines but also provides interpretable insights into structural patterns learned by the model.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データから学ぶことで大きな成功を収めているが、局所的、ペアワイズなメッセージパッシングに依存しているため、複雑な高階サブグラフパターンをキャプチャする能力は制限されている。
構造的表現力の不足につながります
近年, ランダムウォークカーネルをGNNに組み込むことにより, 構造表現性の向上が試みられている。
しかし、これらの手法は本質的にグラフレベルのタスク用に設計されており、ノード分類などの他の下流タスクに適用性を制限する。
さらに、それらの固定されたカーネル構成は、多様なサブグラフ構造をキャプチャする際のモデルの柔軟性を妨げている。
これらの制約に対処するために,多種多様なグラフタスクを対象としたフレキシブルかつ表現力のあるサブグラフベース表現学習のための,新しいMixture of Subgraph Experts(MoSE)フレームワークを提案する。
特に、MoSEは匿名ウォークを通じて情報的なサブグラフを抽出し、構造的意味論に基づく専門の専門家に動的にルーティングすることで、柔軟性と解釈性を改善した多様なサブグラフパターンをキャプチャすることができる。
Wesfeiler-Lehman (SWL) テストでは, MoSE の表現性について理論的に解析し,SWL よりも強力であることを証明した。
大規模な実験は、学習したサブグラフの専門家の可視化とともに、MoSEが競争ベースラインを上回るだけでなく、モデルによって学習された構造パターンに対する解釈可能な洞察を提供することを示した。
関連論文リスト
- Integrating Structural and Semantic Signals in Text-Attributed Graphs with BiGTex [0.16385815610837165]
BiGTexは、スタック化されたGraph-Text Fusion Unitを通じてGNNとLLMを密に統合する新しいアーキテクチャである。
BiGTexはノード分類における最先端性能を実現し、リンク予測に効果的に一般化する。
論文 参考訳(メタデータ) (2025-04-16T20:25:11Z) - Motif-driven Subgraph Structure Learning for Graph Classification [25.205435425328215]
グラフ構造学習(GSL)は、グラフ構造を改善し、下流タスクのパフォーマンスを高めるための有望なアプローチとして登場した。
グラフ分類のための新しいモチーフ駆動サブグラフ構造学習法(MOSGSL)を提案する。
論文 参考訳(メタデータ) (2024-06-13T07:50:44Z) - GraphEdit: Large Language Models for Graph Structure Learning [14.16155596597421]
グラフ構造学習(GSL)は、グラフ構造データ中のノード間の固有の依存関係と相互作用をキャプチャすることに焦点を当てている。
既存のGSL法は、監督信号として明示的なグラフ構造情報に大きく依存している。
グラフ構造化データの複雑なノード関係を学習するために,大規模言語モデル(LLM)を利用したグラフ編集を提案する。
論文 参考訳(メタデータ) (2024-02-23T08:29:42Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Combining Stochastic Explainers and Subgraph Neural Networks can
Increase Expressivity and Interpretability [12.526174412246107]
サブグラフ強化グラフニューラルネットワーク(SGNN)は、標準的なメッセージパッシングフレームワークのパワーを高めることができる。
本稿では,グラフのクラスと説明的スパース部分グラフの集合を共同で予測する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-14T14:21:20Z) - Ordered Subgraph Aggregation Networks [19.18478955240166]
グラフ強化グラフニューラルネットワーク(GNN)が登場し、標準(メッセージパス)GNNの表現力を確実に向上させている。
本稿では, 理論的枠組みを導入し, サブグラフ強化GNNの表現性を拡張した。
部分グラフサイズの増加は常に表現力を高め、それらの制限をよりよく理解することを示します。
論文 参考訳(メタデータ) (2022-06-22T15:19:34Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Equivariant Subgraph Aggregation Networks [23.26140936226352]
本稿では,この問題に対処するためのEquivariant Subgraph Aggregation Networks (ESAN) という新しいフレームワークを提案する。
2つのグラフはMPNNでは区別できないかもしれないが、しばしば区別可能な部分グラフを含む。
グラフ同型に対する1次元Weisfeiler-Leman(1-WL)テストの新しい変種を開発し、ESANの表現性に対する下界を証明した。
サブグラフ選択ポリシーや同変ニューラルアーキテクチャといった設計選択がアーキテクチャの表現力にどのように影響するかを記述する理論的結果を提供する。
論文 参考訳(メタデータ) (2021-10-06T16:45:07Z) - Learning compositional structures for semantic graph parsing [81.41592892863979]
本稿では、AM依存性解析をニューラル潜在変数モデルで直接トレーニングする方法を示す。
本モデルでは,いくつかの言語現象を独自に把握し,教師あり学習に匹敵する精度を達成している。
論文 参考訳(メタデータ) (2021-06-08T14:20:07Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。