論文の概要: Exploiting Latent Attribute Interaction with Transformer on
Heterogeneous Information Networks
- arxiv url: http://arxiv.org/abs/2311.03275v1
- Date: Mon, 6 Nov 2023 17:18:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 13:36:47.413306
- Title: Exploiting Latent Attribute Interaction with Transformer on
Heterogeneous Information Networks
- Title(参考訳): 異種情報ネットワーク上での変圧器との潜時属性相互作用の爆発
- Authors: Zeyuan Zhao, Qingqing Ge, Anfeng Cheng, Yiding Liu, Xiang Li,
Shuaiqiang Wang
- Abstract要約: ヘテロジニアスグラフニューラルネットワーク(HGNN)は、最近、異種グラフのモデリングにおいて顕著な能力を示した。
本稿では,タイプ対応エンコーダと次元対応エンコーダの2つの主要コンポーネントを含む,新しい異種グラフモデルMULANを提案する。
- 参考スコア(独自算出の注目度): 10.720936410775842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heterogeneous graph neural networks (HGNNs) have recently shown impressive
capability in modeling heterogeneous graphs that are ubiquitous in real-world
applications. Due to the diversity of attributes of nodes in different types,
most existing models first align nodes by mapping them into the same
low-dimensional space. However, in this way, they lose the type information of
nodes. In addition, most of them only consider the interactions between nodes
while neglecting the high-order information behind the latent interactions
among different node features. To address these problems, in this paper, we
propose a novel heterogeneous graph model MULAN, including two major
components, i.e., a type-aware encoder and a dimension-aware encoder.
Specifically, the type-aware encoder compensates for the loss of node type
information and better leverages graph heterogeneity in learning node
representations. Built upon transformer architecture, the dimension-aware
encoder is capable of capturing the latent interactions among the diverse node
features. With these components, the information of graph heterogeneity, node
features and graph structure can be comprehensively encoded in node
representations. We conduct extensive experiments on six heterogeneous
benchmark datasets, which demonstrates the superiority of MULAN over other
state-of-the-art competitors and also shows that MULAN is efficient.
- Abstract(参考訳): 異種グラフニューラルネットワーク(HGNN)は、最近、現実世界のアプリケーションでユビキタスな異種グラフをモデリングする際、顕著な能力を示した。
異なるタイプのノードの属性の多様性のため、既存のモデルのほとんどは、まずノードを同じ低次元空間にマッピングすることでノードを整列させる。
しかし、この方法ではノードの型情報を失う。
さらに、ほとんどのノードはノード間の相互作用のみを考慮し、異なるノード特徴間の潜在相互作用の背後にある高次情報を無視している。
これらの問題に対処するため,本論文では,タイプアウェアエンコーダと次元アウェアエンコーダという2つの主要コンポーネントを含む新しい異種グラフモデルMULANを提案する。
特に、型認識エンコーダは、ノード型情報の損失を補償し、学習ノード表現におけるグラフの不均一性をよりよく活用する。
トランスフォーマーアーキテクチャ上に構築されたディメンションアウェアエンコーダは、さまざまなノード機能間の潜在的なインタラクションをキャプチャすることができる。
これらのコンポーネントにより、グラフの不均一性、ノードの特徴、グラフ構造に関する情報は、ノード表現に包括的にエンコードできる。
我々は6つの異種ベンチマークデータセットに対して広範な実験を行い、MULANが他の最先端の競合相手よりも優れていることを示すとともに、MULANが効率的であることを示す。
関連論文リスト
- Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [5.431036185361236]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - Position-based Hash Embeddings For Scaling Graph Neural Networks [8.87527266373087]
グラフニューラルネットワーク(GNN)は、ノードのエゴネットワークのトポロジとエゴネットワークのノードの特徴を考慮したノード表現を演算する。
ノードが高品質な機能を持っていない場合、GNNはノードの埋め込みを計算するために埋め込み層を学び、それらを入力機能として使用する。
この埋め込みレイヤに関連するメモリを削減するため、NLPやレコメンダシステムのようなアプリケーションで一般的に使用されるハッシュベースのアプローチが利用可能である。
本稿では,グラフ内のノードの位置を利用して,必要なメモリを大幅に削減する手法を提案する。
論文 参考訳(メタデータ) (2021-08-31T22:42:25Z) - Heterogeneous Graph Neural Network with Multi-view Representation
Learning [16.31723570596291]
異種グラフ埋め込みのための多視点表現学習(MV-HetGNN)を用いた異種グラフニューラルネットワークを提案する。
提案手法は, ノード特徴変換, ビュー固有エゴグラフ符号化, 自動多視点融合により, 包括的ノード表現を生成する複雑な構造情報と意味情報を完全に学習する。
3つの実世界の異種グラフデータセットに対する大規模な実験により、提案されたMV-HetGNNモデルは、様々な下流タスクにおいて、最先端のGNNベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2021-08-31T07:18:48Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - GAIN: Graph Attention & Interaction Network for Inductive
Semi-Supervised Learning over Large-scale Graphs [18.23435958000212]
グラフニューラルネットワーク(GNN)は、推薦、ノード分類、リンク予測など、さまざまな機械学習タスクにおいて最先端のパフォーマンスを実現している。
既存のGNNモデルの多くは、隣接するノード情報を集約するために単一のタイプのアグリゲータを利用している。
本稿では,グラフ上の帰納学習のための新しいグラフニューラルネットワークアーキテクチャであるグラフ注意と相互作用ネットワーク(GAIN)を提案する。
論文 参考訳(メタデータ) (2020-11-03T00:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。