論文の概要: A Flexible, Equivariant Framework for Subgraph GNNs via Graph Products and Graph Coarsening
- arxiv url: http://arxiv.org/abs/2406.09291v4
- Date: Thu, 29 May 2025 21:33:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.414216
- Title: A Flexible, Equivariant Framework for Subgraph GNNs via Graph Products and Graph Coarsening
- Title(参考訳): グラフ製品とグラフ粗大化によるグラフGNNのフレキシブルで等価なフレームワーク
- Authors: Guy Bar-Shalom, Yam Eitan, Fabrizio Frasca, Haggai Maron,
- Abstract要約: サブグラフGNNはグラフをサブグラフの集合として表現することで、メッセージパッシングGNNの表現性を高める。
以前のアプローチでは、ランダムまたは学習可能なサンプリングによって、サブグラフの小さなサブセットを生成する試みがあった。
本稿では,これらの問題に対処する新しいSubgraph GNNフレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.688057947275112
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Subgraph GNNs enhance message-passing GNNs expressivity by representing graphs as sets of subgraphs, demonstrating impressive performance across various tasks. However, their scalability is hindered by the need to process large numbers of subgraphs. While previous approaches attempted to generate smaller subsets of subgraphs through random or learnable sampling, these methods often yielded suboptimal selections or were limited to small subset sizes, ultimately compromising their effectiveness. This paper introduces a new Subgraph GNN framework to address these issues. Our approach diverges from most previous methods by associating subgraphs with node clusters rather than with individual nodes. We show that the resulting collection of subgraphs can be viewed as the product of coarsened and original graphs, unveiling a new connectivity structure on which we perform generalized message passing. Crucially, controlling the coarsening function enables meaningful selection of any number of subgraphs. In addition, we reveal novel permutation symmetries in the resulting node feature tensor, characterize associated linear equivariant layers, and integrate them into our Subgraph GNN. We also introduce novel node marking strategies and provide a theoretical analysis of their expressive power and other key aspects of our approach. Extensive experiments on multiple graph learning benchmarks demonstrate that our method is significantly more flexible than previous approaches, as it can seamlessly handle any number of subgraphs, while consistently outperforming baseline approaches. Our code is available at https://github.com/BarSGuy/Efficient-Subgraph-GNNs.
- Abstract(参考訳): サブグラフGNNは、グラフをサブグラフの集合として表現することで、メッセージパッシングGNNの表現性を高め、様々なタスクにまたがる印象的なパフォーマンスを示す。
しかし、そのスケーラビリティは大量のサブグラフを処理する必要性によって妨げられている。
以前のアプローチでは、ランダムまたは学習可能なサンプリングによって、サブグラフの小さなサブセットを生成しようとしたが、これらの手法は、しばしば最適以下の選択を得たり、小さなサブセットサイズに制限されたりして、最終的にそれらの効果を妥協させたりした。
本稿では,これらの問題に対処する新しいSubgraph GNNフレームワークを提案する。
提案手法は,個々のノードではなく,ノードクラスタにサブグラフを関連付けることによって,従来の手法と異なる。
得られたサブグラフの集合を粗いグラフと原グラフの積と見なすことができ、一般化されたメッセージパッシングを行うための新しい接続構造を明らかにする。
重要なことに、粗い関数を制御することは、任意の数の部分グラフを意味ある選択を可能にする。
さらに、ノード特徴テンソルに新しい置換対称性を明らかにし、関連する線形同変層を特徴付け、それらをサブグラフGNNに統合する。
また、新しいノードマーキング戦略を導入し、その表現力および我々のアプローチの他の重要な側面を理論的に分析する。
複数のグラフ学習ベンチマークの大規模な実験により,提案手法は従来手法よりもはるかに柔軟であり,任意のサブグラフをシームレスに扱える一方で,ベースライン手法よりも一貫して優れていることが示された。
私たちのコードはhttps://github.com/BarSGuy/Efficient-Subgraph-GNNsで利用可能です。
関連論文リスト
- Exact Acceleration of Subgraph Graph Neural Networks by Eliminating Computation Redundancy [49.233339837170895]
本稿では,Ego-Nets-Fit-All(ENFA)について述べる。
ENFAはストレージ容量を29.0%から84.5%削減し、トレーニング効率を最大1.66倍向上させることができる。
論文 参考訳(メタデータ) (2024-12-24T03:21:03Z) - Hyperedge Modeling in Hypergraph Neural Networks by using Densest Overlapping Subgraphs [0.0]
グラフクラスタリングにおける最も重要な問題の1つは、最も重なり合う部分グラフ(DOS)を見つけることである。
本稿では,最も重なり合う部分グラフを生成するプロセスを改善するための新しいアプローチとして,アグロメラティシオン (DOSAGE) アルゴリズムを用いたDOS問題の解を提案する。
標準ベンチマークの実験では、DOSAGEアルゴリズムはノード分類タスクにおいて、HGNNや他の6つのメソッドよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-09-16T14:56:10Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - SPGNN: Recognizing Salient Subgraph Patterns via Enhanced Graph Convolution and Pooling [25.555741218526464]
グラフニューラルネットワーク(GNN)は、グラフやネットワークのような非ユークリッドデータ上での機械学習の分野に革命をもたらした。
本稿では,ノード表現をインジェクティブに更新する結合型グラフ畳み込み機構を提案する。
また,WL-SortPoolと呼ばれるグラフプーリングモジュールを設計し,重要なサブグラフパターンをディープラーニングで学習する。
論文 参考訳(メタデータ) (2024-04-21T13:11:59Z) - MAG-GNN: Reinforcement Learning Boosted Graph Neural Network [68.60884768323739]
特定の研究の行は、GNNの表現性を向上させるためにサブグラフ情報を使用するサブグラフGNNを提案し、大きな成功を収めた。
このような効果は、すべての可能な部分グラフを列挙することによって、GNNの効率を犠牲にする。
本稿では,強化学習(RL)により強化されたGNNである磁気グラフニューラルネットワーク(MAG-GNN)を提案する。
論文 参考訳(メタデータ) (2023-10-29T20:32:21Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Stochastic Subgraph Neighborhood Pooling for Subgraph Classification [2.1270496914042996]
Subgraph Neighborhood Pooling (SSNP) は、ラベル付けトリックのような計算コストの高い操作をすることなく、サブグラフとその周辺情報を共同で集約する。
実験により、我々のモデルは、トレーニングにおいて最大3倍高速でありながら、最先端の手法(マージンが最大2%)より優れています。
論文 参考訳(メタデータ) (2023-04-17T18:49:18Z) - Understanding and Extending Subgraph GNNs by Rethinking Their Symmetries [33.07812045457703]
グラフGNNはグラフをサブグラフのコレクションとしてモデル化するグラフニューラルネットワーク(GNN)の最近のクラスである。
ノードベースの部分グラフ選択ポリシーを用いた,最も顕著な部分グラフ法について検討する。
本稿では,従来のノードベースサブグラフGNNを一般化したサブグラフ手法に対して,メッセージパッシングの一般的なファミリを提案する。
論文 参考訳(メタデータ) (2022-06-22T14:35:47Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。