論文の概要: MGDCF: Distance Learning via Markov Graph Diffusion for Neural
Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2204.02338v1
- Date: Tue, 5 Apr 2022 17:24:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 14:39:43.607678
- Title: MGDCF: Distance Learning via Markov Graph Diffusion for Neural
Collaborative Filtering
- Title(参考訳): mgdcf: ニューラルコラボレーティブフィルタリングのためのマルコフグラフ拡散による距離学習
- Authors: Jun Hu, Shengsheng Qian, Quan Fang, Changsheng Xu
- Abstract要約: 協調フィルタリング(CF)はパーソナライズされたレコメンデーションシステムで広く利用されている。
最近のGNNに基づくCF手法は、GNNの高次隣接集約能力にその性能改善を反映している。
- 参考スコア(独自算出の注目度): 86.72420842932208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative filtering (CF) is widely used by personalized recommendation
systems, which aims to predict the preference of users with historical
user-item interactions. In recent years, Graph Neural Networks (GNNs) have been
utilized to build CF models and have shown promising performance. Recent
state-of-the-art GNN-based CF approaches simply attribute their performance
improvement to the high-order neighbor aggregation ability of GNNs. However, we
observe that some powerful deep GNNs such as JKNet and DropEdge, can
effectively exploit high-order neighbor information on other graph tasks but
perform poorly on CF tasks, which conflicts with the explanation of these
GNN-based CF research. Different from these research, we investigate the
GNN-based CF from the perspective of Markov processes for distance learning
with a unified framework named Markov Graph Diffusion Collaborative Filtering
(MGDCF). We design a Markov Graph Diffusion Network (MGDN) as MGDCF's GNN
encoder, which learns vertex representations by trading off two types of
distances via a Markov process. We show the theoretical equivalence between
MGDN's output and the optimal solution of a distance loss function, which can
boost the optimization of CF models. MGDN can generalize state-of-the-art
models such as LightGCN and APPNP, which are heterogeneous GNNs. In addition,
MGDN can be extended to homogeneous GNNs with our sparsification technique. For
optimizing MGDCF, we propose the InfoBPR loss function, which extends the
widely used BPR loss to exploit multiple negative samples for better
performance. We conduct experiments to perform detailed analysis on MGDCF. The
source code is publicly available at https://github.com/hujunxianligong/MGDCF.
- Abstract(参考訳): コラボレーティブ・フィルタリング (CF) は, 個人化されたレコメンデーションシステムで広く利用されており, 歴史的ユーザ・イテムインタラクションによるユーザの嗜好を予測することを目的としている。
近年、グラフニューラルネットワーク(gnns)がcfモデルの構築に利用され、有望なパフォーマンスを示している。
最近のGNNに基づくCF手法は、GNNの高次隣接集約能力にその性能改善を反映している。
しかし、JKNetやDropEdgeのような強力な深層GNNでは、他のグラフタスクの高次隣接情報を効果的に活用できるが、CFタスクでは不十分であり、これらのGNNベースのCF研究の説明と矛盾する。
これらの研究と異なり、マルコフグラフ拡散協調フィルタリング(MGDCF)という統合フレームワークを用いて、距離学習のためのマルコフ過程の観点からGNNベースのCFについて検討する。
マルコフグラフ拡散ネットワーク(MGDN)をMGDCFのGNNエンコーダとして設計し、マルコフプロセスを介して2種類の距離をトレードオフすることで頂点表現を学習する。
本研究では,mgdnの出力と距離損失関数の最適解との理論的等価性を示し,cfモデルの最適化を促進する。
MGDNは異種GNNであるLightGCNやAPPNPといった最先端モデルを一般化することができる。
さらに, MGDNは同種GNNにも拡張可能である。
MGDCFの最適化のために,広く使用されているBPR損失を拡張したInfoBPR損失関数を提案する。
mgdcfの詳細な分析を行う実験を行った。
ソースコードはhttps://github.com/hujunxianligong/MGDCFで公開されている。
関連論文リスト
- Graph Neural Networks at a Fraction [1.8175282137722093]
本稿では、四元数空間を利用してノード表現を計算するフレームワークである四元数メッセージパッシングニューラルネットワーク(QMPNN)を紹介する。
GNN や QMPNN のコンテキストにおける適用性を再定義する。
論文 参考訳(メタデータ) (2025-02-10T03:55:09Z) - LOGIN: A Large Language Model Consulted Graph Neural Network Training Framework [30.54068909225463]
我々は,GNN設計プロセスの合理化とLarge Language Models(LLM)の利点を活用して,下流タスクにおけるGNNの性能向上を目指す。
我々は,LLMs-as-Consultants(LLMs-as-Consultants)という新たなパラダイムを策定し,LLMとGNNを対話的に統合する。
両グラフのノード分類におけるLOGINの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2024-05-22T18:17:20Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - ReFactor GNNs: Revisiting Factorisation-based Models from a Message-Passing Perspective [36.744669438010625]
本稿では、ReFactor GNNを提案することにより、因子モデル(FM)とグラフニューラルネットワーク(GNN)のギャップを埋める。
我々は、勾配降下手順をメッセージパッシング操作として再構成することにより、FMをGNNとしてキャストする方法を示す。
我々のGNNは、FMに匹敵するトランスダクティブ性能と最先端のインダクティブ性能を実現し、パラメータの桁数を桁違いに減らした。
論文 参考訳(メタデータ) (2022-07-20T15:39:30Z) - KerGNNs: Interpretable Graph Neural Networks with Graph Kernels [14.421535610157093]
グラフニューラルネットワーク(GNN)は、下流グラフ関連タスクにおける最先端の手法となっている。
我々は新しいGNNフレームワークKernel Graph Neural Networks(KerGNNs)を提案する。
KerGNNはグラフカーネルをGNNのメッセージパッシングプロセスに統合する。
提案手法は,既存の最先端手法と比較して,競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-01-03T06:16:30Z) - Hybrid Graph Neural Networks for Few-Shot Learning [85.93495480949079]
グラフニューラルネットワーク(GNN)は、数発の学習問題に対処するために使用されている。
帰納的設定の下では、既存のGNNベースのメソッドは競争力が少ない。
本稿では2つのGNN(インスタンスGNNとプロトタイプGNN)からなる新しいハイブリッドGNNモデルを提案する。
論文 参考訳(メタデータ) (2021-12-13T10:20:15Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Efficient Probabilistic Logic Reasoning with Graph Neural Networks [63.099999467118245]
マルコフ論理ネットワーク(MLN)は、多くの知識グラフ問題に対処するために用いられる。
MLNの推論は計算集約的であり、MLNの産業規模での応用は非常に困難である。
本稿では,表現力とモデルの単純さとのバランスのよいグラフニューラルネット(GNN)モデルであるExpressGNNを提案する。
論文 参考訳(メタデータ) (2020-01-29T23:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。