論文の概要: Hop-Hop Relation-aware Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2012.11147v1
- Date: Mon, 21 Dec 2020 06:58:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 09:37:02.709972
- Title: Hop-Hop Relation-aware Graph Neural Networks
- Title(参考訳): ホップホップ関係認識グラフニューラルネットワーク
- Authors: Li Zhang, Yan Ge, Haiping Lu
- Abstract要約: 我々は,同種および異種グラフの表現学習を統合するために,ホップホップ対応グラフニューラルネットワーク(HHR-GNN)を提案する。
HHR-GNNは、各ノードに対するパーソナライズされた受容領域を知識グラフ埋め込みを利用して学習し、中央ノードの表現間の関係スコアを異なるホップで学習する。
- 参考スコア(独自算出の注目度): 15.15806320256929
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) are widely used in graph representation
learning. However, most GNN methods are designed for either homogeneous or
heterogeneous graphs. In this paper, we propose a new model, Hop-Hop
Relation-aware Graph Neural Network (HHR-GNN), to unify representation learning
for these two types of graphs. HHR-GNN learns a personalized receptive field
for each node by leveraging knowledge graph embedding to learn relation scores
between the central node's representations at different hops. In neighborhood
aggregation, our model simultaneously allows for hop-aware projection and
aggregation. This mechanism enables the central node to learn a hop-wise
neighborhood mixing that can be applied to both homogeneous and heterogeneous
graphs. Experimental results on five benchmarks show the competitive
performance of our model compared to state-of-the-art GNNs, e.g., up to 13K
faster in terms of time cost per training epoch on large heterogeneous graphs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はグラフ表現学習に広く用いられている。
しかし、ほとんどのGNN法は等質グラフまたは異質グラフのために設計されている。
本稿では,これら2種類のグラフの表現学習を統一するモデルhop-hop relation-aware graph neural network (hhr-gnn)を提案する。
HHR-GNNは、各ノードに対するパーソナライズされた受容領域を知識グラフ埋め込みを利用して学習し、中央ノードの表現間の関係スコアを異なるホップで学習する。
近所のアグリゲーションでは,ホップ対応の投影とアグリゲーションを同時に行う。
この機構により、中心ノードは同質グラフと異質グラフの両方に適用できるホップワイド近傍混合を学習することができる。
5つのベンチマークによる実験結果から,大規模な異種グラフ上でのトレーニング1時間あたりの時間コストは,最先端のGNNと比較して最大13K高速であることがわかった。
関連論文リスト
- Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Incorporating Heterophily into Graph Neural Networks for Graph Classification [6.709862924279403]
グラフニューラルネットワーク(GNN)は、しばしばグラフ分類において強いホモフィリを仮定し、ヘテロフィリを考えることは滅多にない。
We developed a novel GNN architecture called IHGNN (short for Incorporated Heterophily into Graph Neural Networks)
我々は、様々なグラフデータセット上でIHGNNを実証的に検証し、グラフ分類のための最先端のGNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-15T06:48:35Z) - Graph Neural Networks for Graphs with Heterophily: A Survey [98.45621222357397]
異種グラフに対するグラフニューラルネットワーク(GNN)の総合的なレビューを提供する。
具体的には,既存の異好性GNNモデルを本質的に支配する系統分類法を提案する。
グラフヘテロフィリーと様々なグラフ研究領域の相関を議論し、より効果的なGNNの開発を促進することを目的とした。
論文 参考訳(メタデータ) (2022-02-14T23:07:47Z) - Graph Neural Networks with Parallel Neighborhood Aggregations for Graph
Classification [14.112444998191698]
グラフニューラルネットワーク(GNN)モデルを用いたグラフ分類に着目し、並列に配置された近傍グラフ演算子のバンクを用いてノード特徴をプリ計算する。
これらのGNNモデルには、事前計算によるトレーニングと推論時間の削減という自然な利点がある。
本研究は,様々な実世界のデータセット上で,開発モデルが最先端の性能を達成することを数値実験により実証する。
論文 参考訳(メタデータ) (2021-11-22T19:19:40Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [7.143879014059894]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。