論文の概要: Ordered Subgraph Aggregation Networks
- arxiv url: http://arxiv.org/abs/2206.11168v1
- Date: Wed, 22 Jun 2022 15:19:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 14:12:56.589951
- Title: Ordered Subgraph Aggregation Networks
- Title(参考訳): 順序付きサブグラフ集約ネットワーク
- Authors: Chendi Qian, Gaurav Rattan, Floris Geerts, Christopher Morris, Mathias
Niepert
- Abstract要約: グラフ強化グラフニューラルネットワーク(GNN)が登場し、標準(メッセージパス)GNNの表現力を確実に向上させている。
本稿では, 理論的枠組みを導入し, サブグラフ強化GNNの表現性を拡張した。
部分グラフサイズの増加は常に表現力を高め、それらの制限をよりよく理解することを示します。
- 参考スコア(独自算出の注目度): 19.18478955240166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerous subgraph-enhanced graph neural networks (GNNs) have emerged
recently, provably boosting the expressive power of standard (message-passing)
GNNs. However, there is a limited understanding of how these approaches relate
to each other and to the Weisfeiler--Leman hierarchy. Moreover, current
approaches either use all subgraphs of a given size, sample them uniformly at
random, or use hand-crafted heuristics instead of learning to select subgraphs
in a data-driven manner. Here, we offer a unified way to study such
architectures by introducing a theoretical framework and extending the known
expressivity results of subgraph-enhanced GNNs. Concretely, we show that
increasing subgraph size always increases the expressive power and develop a
better understanding of their limitations by relating them to the established
$k\text{-}\mathsf{WL}$ hierarchy. In addition, we explore different approaches
for learning to sample subgraphs using recent methods for backpropagating
through complex discrete probability distributions. Empirically, we study the
predictive performance of different subgraph-enhanced GNNs, showing that our
data-driven architectures increase prediction accuracy on standard benchmark
datasets compared to non-data-driven subgraph-enhanced graph neural networks
while reducing computation time.
- Abstract(参考訳): 多数のサブグラフ強化グラフニューラルネットワーク(GNN)が最近出現し、標準(メッセージパス)GNNの表現力を高めている。
しかしながら、これらのアプローチとWeisfeiler-Leman階層との関係について、限定的な理解がある。
さらに、現在のアプローチでは、与えられたサイズのすべてのサブグラフを使用し、ランダムにサンプリングするか、データ駆動の方法でサブグラフを選択することを学ぶ代わりに手作りのヒューリスティックを使用する。
本稿では,理論的枠組みを導入し,グラフ強化GNNの既知表現率を拡張することによって,そのようなアーキテクチャを統一的に研究する方法を提案する。
具体的には、サブグラフサイズの増加は常に表現力を高め、確立された $k\text{-}\mathsf{wl}$ 階層と関連づけることで、それらの制限をよりよく理解する。
さらに, 複素離散確率分布をバックプロパゲーションする最近の手法を用いて, サブグラフをサンプル化する学習法について検討した。
実験により,データ駆動アーキテクチャは,計算時間を短縮しつつ,非データ駆動グラフニューラルネットワークと比較して,標準ベンチマークデータセットの予測精度を向上させることを示した。
関連論文リスト
- Enhanced Expressivity in Graph Neural Networks with Lanczos-Based Linear Constraints [7.605749412696919]
グラフニューラルネットワーク(GNN)はグラフ構造化データの処理に優れるが、リンク予測タスクでは性能が劣ることが多い。
グラフラプラシア行列の固有基底に誘導された部分グラフを埋め込むことによりGNNの表現性を高める新しい手法を提案する。
提案手法は,PubMedとOGBL-Vesselのデータセットから,5%と10%のデータしか必要とせず,20倍と10倍の高速化を実現する。
論文 参考訳(メタデータ) (2024-08-22T12:22:00Z) - A Flexible, Equivariant Framework for Subgraph GNNs via Graph Products and Graph Coarsening [18.688057947275112]
グラフグラフニューラルネットワーク(サブグラフGNN)は,グラフをサブグラフの集合として表現することで,メッセージパスGNNの表現性を向上する。
以前のアプローチでは、ランダムにまたは学習可能なサンプリングによって選択されたサブグラフのサブセットのみを処理することを提案していた。
本稿では,これらの問題に対処する新しいSubgraph GNNフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-13T16:29:06Z) - Improving the interpretability of GNN predictions through conformal-based graph sparsification [9.550589670316523]
グラフニューラルネットワーク(GNN)は、グラフ分類タスクの解決において最先端のパフォーマンスを達成した。
エッジやノードを除去することで,最も予測可能なサブグラフを見つけるGNNエンハンチング手法を提案する。
我々は、共形予測に基づく報奨関数で得られる二段階最適化を解決するために強化学習を頼りにしている。
論文 参考訳(メタデータ) (2024-04-18T17:34:47Z) - MAG-GNN: Reinforcement Learning Boosted Graph Neural Network [68.60884768323739]
特定の研究の行は、GNNの表現性を向上させるためにサブグラフ情報を使用するサブグラフGNNを提案し、大きな成功を収めた。
このような効果は、すべての可能な部分グラフを列挙することによって、GNNの効率を犠牲にする。
本稿では,強化学習(RL)により強化されたGNNである磁気グラフニューラルネットワーク(MAG-GNN)を提案する。
論文 参考訳(メタデータ) (2023-10-29T20:32:21Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Combining Stochastic Explainers and Subgraph Neural Networks can
Increase Expressivity and Interpretability [12.526174412246107]
サブグラフ強化グラフニューラルネットワーク(SGNN)は、標準的なメッセージパッシングフレームワークのパワーを高めることができる。
本稿では,グラフのクラスと説明的スパース部分グラフの集合を共同で予測する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-14T14:21:20Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Counting Substructures with Higher-Order Graph Neural Networks:
Possibility and Impossibility Results [58.277290855841976]
グラフニューラルネットワーク(GNN)の計算コストと表現力のトレードオフについて検討する。
新しいモデルでは、$k$のサブグラフをカウントでき、低次GNNの既知の制限を克服できることを示す。
いくつかの場合において、提案アルゴリズムは既存の高階$k$-GNNに比べて計算量を大幅に削減することができる。
論文 参考訳(メタデータ) (2020-12-06T03:42:54Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Subgraph Neural Networks [14.222887950206662]
本稿では,不整合部分グラフ表現を学習するためのサブグラフニューラルネットワークSubGNNを紹介する。
SubGNNは、挑戦的なバイオメディカルデータセットで非常によく機能する。
論文 参考訳(メタデータ) (2020-06-18T13:54:30Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。