論文の概要: Graph Summarization with Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2203.05919v1
- Date: Fri, 11 Mar 2022 13:45:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 13:55:55.950826
- Title: Graph Summarization with Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークによるグラフ要約
- Authors: Maximilian Blasi and Manuel Freudenreich and Johannes Horvath and
David Richerby and Ansgar Scherp
- Abstract要約: グラフニューラルネットワークを用いて、構造化されたコンパクトな方法で大きなグラフを表現する。
異なるGNNと標準多層パーセプトロン(MLP)とブルームフィルタを非神経的手法として比較する。
以上の結果から,GNNの性能は互いに近いことが明らかとなった。
- 参考スコア(独自算出の注目度): 2.449909275410288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of graph summarization is to represent large graphs in a structured
and compact way. A graph summary based on equivalence classes preserves
pre-defined features of a graph's vertex within a $k$-hop neighborhood such as
the vertex labels and edge labels. Based on these neighborhood characteristics,
the vertex is assigned to an equivalence class. The calculation of the assigned
equivalence class must be a permutation invariant operation on the pre-defined
features. This is achieved by sorting on the feature values, e. g., the edge
labels, which is computationally expensive, and subsequently hashing the
result. Graph Neural Networks (GNN) fulfill the permutation invariance
requirement. We formulate the problem of graph summarization as a subgraph
classification task on the root vertex of the $k$-hop neighborhood. We adapt
different GNN architectures, both based on the popular message-passing protocol
and alternative approaches, to perform the structural graph summarization task.
We compare different GNNs with a standard multi-layer perceptron (MLP) and
Bloom filter as non-neural method. For our experiments, we consider four
popular graph summary models on a large web graph. This resembles challenging
multi-class vertex classification tasks with the numbers of classes ranging
from $576$ to multiple hundreds of thousands. Our results show that the
performance of GNNs are close to each other. In three out of four experiments,
the non-message-passing GraphMLP model outperforms the other GNNs. The
performance of the standard MLP is extraordinary good, especially in the
presence of many classes. Finally, the Bloom filter outperforms all neural
architectures by a large margin, except for the dataset with the fewest number
of $576$ classes.
- Abstract(参考訳): グラフ要約の目標は、構造化されコンパクトな方法で大きなグラフを表現することである。
同値クラスに基づくグラフサマリーは、頂点ラベルやエッジラベルのような$k$-hop近傍におけるグラフの頂点の事前定義された特徴を保存する。
これらの近傍特性に基づいて、頂点は同値類に割り当てられる。
割り当てられた同値類の計算は、予め定義された特徴に対する置換不変演算でなければならない。
これは機能値のソートによって実現されます。
g.
エッジラベルは計算コストが高く、その結果をハッシュします。
グラフニューラルネットワーク(GNN)は、置換不変性を満たす。
我々は,$k$-hop近傍の根頂点上の部分グラフ分類タスクとしてグラフ要約の問題を定式化する。
我々は、一般的なメッセージパスプロトコルと代替アプローチに基づいて異なるGNNアーキテクチャを適用し、構造グラフ要約タスクを実行する。
異なるGNNと標準多層パーセプトロン(MLP)とブルームフィルタを非神経的手法として比較する。
実験では,大規模 web グラフ上の 4 つの人気のあるグラフ要約モデルについて検討した。
これは挑戦的なマルチクラスの頂点分類タスクに似ており、クラス数は576ドルから数十万までである。
以上の結果から,GNNの性能は互いに近いことが明らかとなった。
4つの実験のうち3つの実験において、非メッセージパスグラフMLPモデルは他のGNNよりも優れている。
標準MLPの性能は、特に多くのクラスの存在下では、非常に良好である。
最後に、bloomフィルタは、最少の576ドルのクラスを持つデータセットを除いて、すべてのニューラルネットワークアーキテクチャを大きなマージンで上回っている。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - A Topological characterisation of Weisfeiler-Leman equivalence classes [0.0]
グラフニューラルネットワーク(GNN)は、グラフと信号をグラフ上で処理することを目的とした学習モデルである。
本稿では、GNNが区別できないグラフのクラスを完全に特徴づけるために、被覆空間の理論に依存する。
データセット内の識別不能グラフの数は,ノード数とともに指数関数的に増加することを示す。
論文 参考訳(メタデータ) (2022-06-23T17:28:55Z) - Semi-Supervised Hierarchical Graph Classification [54.25165160435073]
ノードがグラフのインスタンスである階層グラフにおけるノード分類問題について検討する。
本稿では階層グラフ相互情報(HGMI)を提案し,理論的保証をもってHGMIを計算する方法を提案する。
本稿では,この階層グラフモデリングとSEAL-CI法がテキストおよびソーシャルネットワークデータに与える影響を実証する。
論文 参考訳(メタデータ) (2022-06-11T04:05:29Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - Incorporating Heterophily into Graph Neural Networks for Graph Classification [6.709862924279403]
グラフニューラルネットワーク(GNN)は、しばしばグラフ分類において強いホモフィリを仮定し、ヘテロフィリを考えることは滅多にない。
We developed a novel GNN architecture called IHGNN (short for Incorporated Heterophily into Graph Neural Networks)
我々は、様々なグラフデータセット上でIHGNNを実証的に検証し、グラフ分類のための最先端のGNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-15T06:48:35Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Imbalanced Graph Classification via Graph-of-Graph Neural Networks [16.589373163769853]
グラフニューラルネットワーク(GNN)は、グラフの分類ラベルを識別するグラフ表現の学習において、前例のない成功を収めている。
本稿では,グラフ不均衡問題を軽減する新しいフレームワークであるグラフ・オブ・グラフニューラルネットワーク(G$2$GNN)を提案する。
提案したG$2$GNNは,F1-macroとF1-microのスコアにおいて,多くのベースラインを約5%上回る性能を示した。
論文 参考訳(メタデータ) (2021-12-01T02:25:47Z) - AnchorGAE: General Data Clustering via $O(n)$ Bipartite Graph
Convolution [79.44066256794187]
我々は、グラフ畳み込みネットワーク(GCN)を構築するために使用される生成グラフモデルを導入することにより、グラフに非グラフデータセットを変換する方法を示す。
アンカーによって構築された二部グラフは、データの背後にある高レベル情報を利用するために動的に更新される。
理論的には、単純な更新が退化につながることを証明し、それに従って特定の戦略が設計される。
論文 参考訳(メタデータ) (2021-11-12T07:08:13Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Few-Shot Learning on Graphs via Super-Classes based on Graph Spectral
Measures [14.932318540666545]
グラフニューラルネットワーク (GNN) におけるショットグラフ分類の問題について, 限定ラベル付きグラフの場合, 未確認のクラスを認識するために検討した。
グラフ正規化ラプラシアンのスペクトルに基づいて確率測度を各グラフに割り当てる手法を提案する。
論文 参考訳(メタデータ) (2020-02-27T17:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。