論文の概要: Simple and Efficient Heterogeneous Graph Neural Network
- arxiv url: http://arxiv.org/abs/2207.02547v3
- Date: Fri, 1 Sep 2023 01:23:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-04 17:42:12.579348
- Title: Simple and Efficient Heterogeneous Graph Neural Network
- Title(参考訳): 単純で効率的な不均一グラフニューラルネットワーク
- Authors: Xiaocheng Yang, Mingyu Yan, Shirui Pan, Xiaochun Ye, Dongrui Fan
- Abstract要約: 不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
- 参考スコア(独自算出の注目度): 55.56564522532328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heterogeneous graph neural networks (HGNNs) have powerful capability to embed
rich structural and semantic information of a heterogeneous graph into node
representations. Existing HGNNs inherit many mechanisms from graph neural
networks (GNNs) over homogeneous graphs, especially the attention mechanism and
the multi-layer structure. These mechanisms bring excessive complexity, but
seldom work studies whether they are really effective on heterogeneous graphs.
This paper conducts an in-depth and detailed study of these mechanisms and
proposes Simple and Efficient Heterogeneous Graph Neural Network (SeHGNN). To
easily capture structural information, SeHGNN pre-computes the neighbor
aggregation using a light-weight mean aggregator, which reduces complexity by
removing overused neighbor attention and avoiding repeated neighbor aggregation
in every training epoch. To better utilize semantic information, SeHGNN adopts
the single-layer structure with long metapaths to extend the receptive field,
as well as a transformer-based semantic fusion module to fuse features from
different metapaths. As a result, SeHGNN exhibits the characteristics of simple
network structure, high prediction accuracy, and fast training speed. Extensive
experiments on five real-world heterogeneous graphs demonstrate the superiority
of SeHGNN over the state-of-the-arts on both accuracy and training speed.
- Abstract(参考訳): 不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
これらのメカニズムは過剰な複雑さをもたらすが、ヘテロジニアスグラフに実際に効果があるかどうかの研究はほとんどない。
本稿では,これらのメカニズムを詳細に研究し,単純で効率的なグラフニューラルネットワーク(sehgnn)を提案する。
構造情報を容易にキャプチャし、軽度平均アグリゲータを用いて隣り合うアグリゲータを予め計算し、使用過剰な隣人の注意を取り除き、トレーニング時代ごとに繰り返し隣り合うアグリゲータを回避することにより、複雑さを低減させる。
セマンティクス情報を活用するために、sehgnnは、長いメタパスを持つ単層構造を採用し、受容野を拡張し、トランスベースのセマンティクス融合モジュールを使用して異なるメタパスから特徴を融合する。
その結果、SeHGNNは、単純なネットワーク構造、高い予測精度、高速トレーニング速度の特性を示す。
5つの実世界の異種グラフに対する大規模な実験は、精度とトレーニング速度の両面で、SeHGNNの最先端性を示している。
関連論文リスト
- Efficient Topology-aware Data Augmentation for High-Degree Graph Neural Networks [2.7523980737007414]
高次グラフ(HDG)上のグラフニューラルネットワーク(GNN)のための効率的かつ効果的なフロントマウントデータ拡張フレームワークであるTADを提案する。
内部では、(i)構造埋め込みによる機能拡張と(ii)トポロジと属性対応グラフのスパース化という、2つの重要なモジュールが含まれている。
TADAは、ノード分類の観点から8つの実ホモ親和性/ヘテロ親和性HDG上でのメインストリームGNNモデルの予測性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-08T14:14:19Z) - Harnessing Collective Structure Knowledge in Data Augmentation for Graph Neural Networks [25.12261412297796]
グラフニューラルネットワーク(GNN)は,グラフ表現学習において最先端のパフォーマンスを達成した。
我々は新しいアプローチ、すなわち集合構造知識強化グラフニューラルネットワーク(CoS-GNN)を提案する。
論文 参考訳(メタデータ) (2024-05-17T08:50:00Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Ego-based Entropy Measures for Structural Representations on Graphs [35.55543331773255]
VNEstruct は、近辺の位相のエントロピー測度に基づいて、低次元構造表現を生成する単純なアプローチである。
VNEstructは、グラフ構造情報を最適化に組み込むことなく、グラフ分類における最先端のパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2021-02-17T12:55:50Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。