論文の概要: Metapath- and Entity-aware Graph Neural Network for Recommendation
- arxiv url: http://arxiv.org/abs/2010.11793v3
- Date: Fri, 2 Apr 2021 02:14:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 05:21:23.618347
- Title: Metapath- and Entity-aware Graph Neural Network for Recommendation
- Title(参考訳): 推薦のためのメタパスおよびエンティティアウェアグラフニューラルネットワーク
- Authors: Muhammad Umer Anwaar, Zhiwei Han, Shyam Arumugaswamy, Rayyan Ahmad
Khan, Thomas Weber, Tianming Qiu, Hao Shen, Yuanting Liu, Martin Kleinsteuber
- Abstract要約: グラフニューラルネットワーク(GNN)では、メッセージが反復的に隣人のノードの情報を集約する。
このようなシーケンシャルなノード接続、例えばメタパスは、下流のタスクに対する重要な洞察を捉えます。
我々は,共同サブグラフ(CSG)とメタパスを用いてメタパス認識サブグラフを作成する。
PEAGNNは多層GNNを訓練し、そのようなサブグラフ上でメタパス認識情報アグリゲーションを行う。
- 参考スコア(独自算出の注目度): 10.583077434945187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In graph neural networks (GNNs), message passing iteratively aggregates
nodes' information from their direct neighbors while neglecting the sequential
nature of multi-hop node connections. Such sequential node connections e.g.,
metapaths, capture critical insights for downstream tasks. Concretely, in
recommender systems (RSs), disregarding these insights leads to inadequate
distillation of collaborative signals. In this paper, we employ collaborative
subgraphs (CSGs) and metapaths to form metapath-aware subgraphs, which
explicitly capture sequential semantics in graph structures. We propose
meta\textbf{P}ath and \textbf{E}ntity-\textbf{A}ware \textbf{G}raph
\textbf{N}eural \textbf{N}etwork (PEAGNN), which trains multilayer GNNs to
perform metapath-aware information aggregation on such subgraphs. This
aggregated information from different metapaths is then fused using attention
mechanism. Finally, PEAGNN gives us the representations for node and subgraph,
which can be used to train MLP for predicting score for target user-item pairs.
To leverage the local structure of CSGs, we present entity-awareness that acts
as a contrastive regularizer on node embedding. Moreover, PEAGNN can be
combined with prominent layers such as GAT, GCN and GraphSage. Our empirical
evaluation shows that our proposed technique outperforms competitive baselines
on several datasets for recommendation tasks. Further analysis demonstrates
that PEAGNN also learns meaningful metapath combinations from a given set of
metapaths.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)では、メッセージパッシングは、マルチホップノード接続のシーケンシャルな性質を無視しながら、直接隣人からのノード情報を反復的に集約する。
このようなシーケンシャルなノード接続、例えばメタパスは下流のタスクに対する重要な洞察を捉える。
具体的には、レコメンダシステム(rss)では、これらの洞察を無視して、協調的なシグナルを不適切な蒸留に導く。
本稿では,協調サブグラフ (csgs) とメタパスを用いてメタパス認識サブグラフを作成し,グラフ構造におけるシーケンシャルセマンティクスを明示的に捉える。
本稿では,多層gnnを訓練し,そのようなサブグラフ上でメタパス認識情報集約を行う,meta\textbf{p}athおよび \textbf{e}ntity-\textbf{a}ware \textbf{g}raph \textbf{n}eural \textbf{n}etwork (peagnn)を提案する。
異なるメタパスからの集約された情報は、アテンションメカニズムを使って融合される。
最後に、PEAGNNはノードとサブグラフの表現を提供し、ターゲットのユーザ-イテムペアのスコアを予測するためにMLPのトレーニングに使用できる。
CSGの局所的構造を活用するために,ノード埋め込みにおける対照的な正則化器として機能するエンティティ認識を提案する。
さらにPEAGNNは、GAT、GCN、GraphSageといった著名なレイヤと組み合わせることができる。
実験により,提案手法は,推薦タスクのための複数のデータセット上での競合ベースラインよりも優れていることを示す。
さらに分析したところ、PEAGNNは与えられたメタパスのセットから意味のあるメタパスの組み合わせも学習していることがわかった。
関連論文リスト
- MECCH: Metapath Context Convolution-based Heterogeneous Graph Neural
Networks [45.68142605304948]
複数のノードとエッジを持つ構造データの表現学習のために、不均一グラフニューラルネットワーク(HGNN)が提案された。
メタパスコンテキスト畳み込みに基づく異種グラフニューラルネットワーク(MECCH)を提案する。
論文 参考訳(メタデータ) (2022-11-23T09:13:33Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Graph Ordering Attention Networks [22.468776559433614]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに関わる多くの問題でうまく使われている。
近隣ノード間のインタラクションをキャプチャする新しいGNNコンポーネントであるグラフ順序付け注意層(GOAT)を導入する。
GOATレイヤは、複雑な情報をキャプチャするグラフメトリクスのモデリングにおけるパフォーマンスの向上を示す。
論文 参考訳(メタデータ) (2022-04-11T18:13:19Z) - Structure Enhanced Graph Neural Networks for Link Prediction [6.872826041648584]
リンク予測のための構造拡張グラフニューラルネットワーク(SEG)を提案する。
SEGは、ターゲットノードの周囲の位相情報を通常のGNNモデルに組み込む。
OGBリンク予測データセットの実験は、SEGが最先端の結果を達成することを示す。
論文 参考訳(メタデータ) (2022-01-14T03:49:30Z) - SHGNN: Structure-Aware Heterogeneous Graph Neural Network [77.78459918119536]
本稿では、上記の制約に対処する構造対応不均一グラフニューラルネットワーク(SHGNN)を提案する。
まず,メタパス内の中間ノードの局所構造情報を取得するために,特徴伝搬モジュールを利用する。
次に、ツリーアテンションアグリゲータを使用して、グラフ構造情報をメタパス上のアグリゲーションモジュールに組み込む。
最後に、メタパスアグリゲータを利用して、異なるメタパスから集約された情報を融合する。
論文 参考訳(メタデータ) (2021-12-12T14:18:18Z) - Meta-Aggregator: Learning to Aggregate for 1-bit Graph Neural Networks [127.32203532517953]
我々は,GNNパラメータとグラフ特徴をバイナライズするバニラ1ビットフレームワークを開発した。
軽量なアーキテクチャにもかかわらず、我々はこのバニラフレームワークがグラフトポロジを区別するのに十分な差別力に悩まされていることを観察した。
この発見は、バニラ二項化GNNの表現力を向上させるためにメタアグリゲータを考案する動機となる。
論文 参考訳(メタデータ) (2021-09-27T08:50:37Z) - Detecting Communities from Heterogeneous Graphs: A Context Path-based
Graph Neural Network Model [23.525079144108567]
コンテキストパスに基づくグラフニューラルネットワーク(CP-GNN)モデルを構築した。
ノード間の高次関係をノードの埋め込みに埋め込む。
最先端のコミュニティ検出手法よりも優れています。
論文 参考訳(メタデータ) (2021-09-05T12:28:00Z) - Higher-Order Attribute-Enhancing Heterogeneous Graph Neural Networks [67.25782890241496]
異種ネットワーク表現学習のための高次属性強化グラフニューラルネットワーク(HAEGNN)を提案する。
HAEGNNは、リッチで異質なセマンティクスのためのメタパスとメタグラフを同時に組み込む。
ノード分類、ノードクラスタリング、可視化における最先端の手法よりも優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-04-16T04:56:38Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - MAGNN: Metapath Aggregated Graph Neural Network for Heterogeneous Graph
Embedding [36.6390478350677]
本稿では,Metapath Aggregated Graph Neural Network (MAGNN) と呼ばれる新しいモデルを提案する。
MAGNNは、入力ノード属性をカプセル化するノードコンテンツ変換、中間的なセマンティックノードを組み込むMetapath内アグリゲーション、複数のメタパスからのメッセージを統合するMetapath間アグリゲーションという3つの主要なコンポーネントを使用している。
実験により、MAGNNは最先端のベースラインよりも正確な予測結果が得られることが示された。
論文 参考訳(メタデータ) (2020-02-05T08:21:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。