論文の概要: HINormer: Representation Learning On Heterogeneous Information Networks
with Graph Transformer
- arxiv url: http://arxiv.org/abs/2302.11329v1
- Date: Wed, 22 Feb 2023 12:25:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 15:12:25.008743
- Title: HINormer: Representation Learning On Heterogeneous Information Networks
with Graph Transformer
- Title(参考訳): HINormer: グラフ変換器を用いた異種情報ネットワークの表現学習
- Authors: Qiheng Mao, Zemin Liu, Chenghao Liu, Jianling Sun
- Abstract要約: グラフトランスフォーマー(GT)は、グラフ全体にわたってもメッセージパッシングがより広範なカバレッジに伝達できるパラダイムで機能する。
ヘテロジニアス情報ネットワーク(HIN)におけるGTの探索はまだ未公開である。
本稿では,ノード表現学習のための大域集約機構を利用するHINormerという新しいモデルを提案する。
- 参考スコア(独自算出の注目度): 29.217820912610602
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have highlighted the limitations of message-passing based
graph neural networks (GNNs), e.g., limited model expressiveness,
over-smoothing, over-squashing, etc. To alleviate these issues, Graph
Transformers (GTs) have been proposed which work in the paradigm that allows
message passing to a larger coverage even across the whole graph. Hinging on
the global range attention mechanism, GTs have shown a superpower for
representation learning on homogeneous graphs. However, the investigation of
GTs on heterogeneous information networks (HINs) is still under-exploited. In
particular, on account of the existence of heterogeneity, HINs show distinct
data characteristics and thus require different treatment. To bridge this gap,
in this paper we investigate the representation learning on HINs with Graph
Transformer, and propose a novel model named HINormer, which capitalizes on a
larger-range aggregation mechanism for node representation learning. In
particular, assisted by two major modules, i.e., a local structure encoder and
a heterogeneous relation encoder, HINormer can capture both the structural and
heterogeneous information of nodes on HINs for comprehensive node
representations. We conduct extensive experiments on four HIN benchmark
datasets, which demonstrate that our proposed model can outperform the
state-of-the-art.
- Abstract(参考訳): 最近の研究では、メッセージパッシングベースのグラフニューラルネットワーク(gnn)の制限、例えば、限定されたモデル表現性、過剰なスムーシング、過剰スワッシングなどが強調されている。
これらの問題を緩和するために、グラフ全体にわたってメッセージパッシングがより広範なカバレッジに伝達できるパラダイムで機能するグラフトランスフォーマー(GT)が提案されている。
グローバルレンジアテンション機構に基づき、GTは同質グラフ上での表現学習の超能力を示した。
しかし、ヘテロジニアス情報ネットワーク(HIN)におけるGTsの調査は、まだ未公開である。
特に、異質性の存在を考慮して、hinは異なるデータ特性を示し、従って異なる処理を必要とする。
本稿では,このギャップを埋めるために,グラフ変換器を用いたHINの表現学習について検討し,ノード表現学習のための大域集約機構を活かしたHINormerという新しいモデルを提案する。
特に、ローカル構造エンコーダとヘテロジニアス関係エンコーダの2つの主要なモジュールによって、HINormerは、包括的なノード表現のためにHIN上のノードの構造情報とヘテロジニアス情報をキャプチャすることができる。
4つのhinベンチマークデータセットについて広範な実験を行い,提案モデルが最先端モデルを上回ることを実証した。
関連論文リスト
- DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Heterogeneous Graph Neural Networks using Self-supervised Reciprocally
Contrastive Learning [102.9138736545956]
不均一グラフニューラルネットワーク(HGNN)は異種グラフのモデリングと解析において非常に一般的な手法である。
我々は,ノード属性とグラフトポロジの各ガイダンスに関する2つの視点を取り入れた,新規で頑健なヘテロジニアスグラフコントラスト学習手法であるHGCLを初めて開発する。
この新しいアプローチでは,属性とトポロジに関連情報を別々にマイニングする手法として,異なるが最も適した属性とトポロジの融合機構を2つの視点に適用する。
論文 参考訳(メタデータ) (2022-04-30T12:57:02Z) - Heterogeneous Graph Neural Network with Multi-view Representation
Learning [16.31723570596291]
異種グラフ埋め込みのための多視点表現学習(MV-HetGNN)を用いた異種グラフニューラルネットワークを提案する。
提案手法は, ノード特徴変換, ビュー固有エゴグラフ符号化, 自動多視点融合により, 包括的ノード表現を生成する複雑な構造情報と意味情報を完全に学習する。
3つの実世界の異種グラフデータセットに対する大規模な実験により、提案されたMV-HetGNNモデルは、様々な下流タスクにおいて、最先端のGNNベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2021-08-31T07:18:48Z) - Parameterized Hypercomplex Graph Neural Networks for Graph
Classification [1.1852406625172216]
我々は超複雑特徴変換の特性を利用するグラフニューラルネットワークを開発した。
特に、提案したモデルのクラスでは、代数自身を特定する乗法則は、トレーニング中にデータから推測される。
提案するハイパーコンプレックスgnnをいくつかのオープングラフベンチマークデータセット上でテストし,そのモデルが最先端の性能に達することを示す。
論文 参考訳(メタデータ) (2021-03-30T18:01:06Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z) - Adaptive Universal Generalized PageRank Graph Neural Network [36.850433364139924]
グラフニューラルネットワーク(GNN)は、両方の証拠源を利用するように設計されている。
本稿では,GPR重みを適応的に学習する汎用PageRank (GPR) GNNアーキテクチャを提案する。
GPR-GNNは、合成データとベンチマークデータの両方の既存の技術と比較して、大幅な性能改善を提供する。
論文 参考訳(メタデータ) (2020-06-14T19:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。