論文の概要: Stochastic Subgraph Neighborhood Pooling for Subgraph Classification
- arxiv url: http://arxiv.org/abs/2304.08556v1
- Date: Mon, 17 Apr 2023 18:49:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 16:40:34.782726
- Title: Stochastic Subgraph Neighborhood Pooling for Subgraph Classification
- Title(参考訳): グラフ分類のための確率的部分グラフ近傍ポーリング
- Authors: Shweta Ann Jacob, Paul Louis and Amirali Salehi-Abari
- Abstract要約: Subgraph Neighborhood Pooling (SSNP) は、ラベル付けトリックのような計算コストの高い操作をすることなく、サブグラフとその周辺情報を共同で集約する。
実験により、我々のモデルは、トレーニングにおいて最大3倍高速でありながら、最先端の手法(マージンが最大2%)より優れています。
- 参考スコア(独自算出の注目度): 2.1270496914042996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Subgraph classification is an emerging field in graph representation learning
where the task is to classify a group of nodes (i.e., a subgraph) within a
graph. Subgraph classification has applications such as predicting the cellular
function of a group of proteins or identifying rare diseases given a collection
of phenotypes. Graph neural networks (GNNs) are the de facto solution for node,
link, and graph-level tasks but fail to perform well on subgraph classification
tasks. Even GNNs tailored for graph classification are not directly
transferable to subgraph classification as they ignore the external topology of
the subgraph, thus failing to capture how the subgraph is located within the
larger graph. The current state-of-the-art models for subgraph classification
address this shortcoming through either labeling tricks or multiple
message-passing channels, both of which impose a computation burden and are not
scalable to large graphs. To address the scalability issue while maintaining
generalization, we propose Stochastic Subgraph Neighborhood Pooling (SSNP),
which jointly aggregates the subgraph and its neighborhood (i.e., external
topology) information without any computationally expensive operations such as
labeling tricks. To improve scalability and generalization further, we also
propose a simple data augmentation pre-processing step for SSNP that creates
multiple sparse views of the subgraph neighborhood. We show that our model is
more expressive than GNNs without labeling tricks. Our extensive experiments
demonstrate that our models outperform current state-of-the-art methods (with a
margin of up to 2%) while being up to 3X faster in training.
- Abstract(参考訳): グラフ表現学習において、サブグラフ分類(subgraph classification)は、グラフ内のノード群(つまりサブグラフ)を分類するタスクである。
サブグラフ分類は、タンパク質群の細胞機能の予測や、表現型の集合が与えられたまれな疾患の同定などの応用がある。
グラフニューラルネットワーク(GNN)は、ノード、リンク、グラフレベルのタスクのデファクトソリューションであるが、サブグラフ分類タスクではうまく機能しない。
グラフ分類用に調整されたGNNでさえ、サブグラフの外的トポロジーを無視するため、サブグラフ分類に直接転送することはできない。
現在のグラフ分類の最先端モデルは、この欠点をラベル付けトリックまたは複数のメッセージパッシングチャネルを通じて解決している。
一般化を維持しながらスケーラビリティの問題に対処するため,グラフとその周辺情報(つまり外部トポロジ)をラベル付けトリックなどの計算コストのかかる操作を伴わずに,共同で集約するStochastic Subgraph Neighborhood Pooling (SSNP)を提案する。
また,スケーラビリティと一般化をさらに向上するため,SSNPのための単純なデータ拡張前処理ステップを提案し,サブグラフ近傍の複数のスパースビューを生成する。
我々のモデルは、ラベル付けトリックなしでGNNよりも表現力が高いことを示す。
我々のモデルは、トレーニングにおいて最大3倍高速でありながら、最先端の手法(マージンは最大2%)より優れています。
関連論文リスト
- A Flexible, Equivariant Framework for Subgraph GNNs via Graph Products and Graph Coarsening [18.688057947275112]
グラフグラフニューラルネットワーク(サブグラフGNN)は,グラフをサブグラフの集合として表現することで,メッセージパスGNNの表現性を向上する。
以前のアプローチでは、ランダムにまたは学習可能なサンプリングによって選択されたサブグラフのサブセットのみを処理することを提案していた。
本稿では,これらの問題に対処する新しいSubgraph GNNフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-13T16:29:06Z) - SPGNN: Recognizing Salient Subgraph Patterns via Enhanced Graph Convolution and Pooling [25.555741218526464]
グラフニューラルネットワーク(GNN)は、グラフやネットワークのような非ユークリッドデータ上での機械学習の分野に革命をもたらした。
本稿では,ノード表現をインジェクティブに更新する結合型グラフ畳み込み機構を提案する。
また,WL-SortPoolと呼ばれるグラフプーリングモジュールを設計し,重要なサブグラフパターンをディープラーニングで学習する。
論文 参考訳(メタデータ) (2024-04-21T13:11:59Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Learning to Count Isomorphisms with Graph Neural Networks [16.455234748896157]
グラフ上の部分グラフ同型カウントは重要な問題である。
本稿では,グラフアイソモーフィズムカウントのための新しいグラフニューラルネットワークであるCount-GNNを提案する。
論文 参考訳(メタデータ) (2023-02-07T05:32:11Z) - Position-Aware Subgraph Neural Networks with Data-Efficient Learning [15.58680146160525]
PADELと呼ばれるサブグラフニューラルネットワークのための位置認識型データ効率学習フレームワークを提案する。
具体的には、アンカーフリーな新しいノード位置符号化法を提案し、拡散変動部分グラフオートエンコーダに基づく新しい生成部分グラフ拡張法を設計する。
論文 参考訳(メタデータ) (2022-11-01T16:34:42Z) - Personalized Subgraph Federated Learning [56.52903162729729]
本稿では,新たなサブグラフFL問題,パーソナライズされたサブグラフFLを導入する。
本稿では,Federated Personalized sUBgraph Learning (FED-PUB)を提案する。
オーバーラップしないサブグラフとオーバーラップするサブグラフの両方を考慮して,FED-PUBのサブグラフFL性能を6つのデータセットで検証した。
論文 参考訳(メタデータ) (2022-06-21T09:02:53Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - On Explainability of Graph Neural Networks via Subgraph Explorations [48.56936527708657]
本稿では,グラフニューラルネットワーク(GNN)を説明するための新しい手法,SubgraphXを提案する。
我々の研究は,GNNのサブグラフを明示的に識別する最初の試みである。
論文 参考訳(メタデータ) (2021-02-09T22:12:26Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Line Graph Neural Networks for Link Prediction [71.00689542259052]
実世界の多くのアプリケーションにおいて古典的なグラフ解析問題であるグラフリンク予測タスクについて検討する。
このフォーマリズムでは、リンク予測問題をグラフ分類タスクに変換する。
本稿では,線グラフをグラフ理論に用いて,根本的に異なる新しい経路を求めることを提案する。
特に、線グラフの各ノードは、元のグラフのユニークなエッジに対応するため、元のグラフのリンク予測問題は、グラフ分類タスクではなく、対応する線グラフのノード分類問題として等価に解決できる。
論文 参考訳(メタデータ) (2020-10-20T05:54:31Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。