論文の概要: MGDCF: Distance Learning via Markov Graph Diffusion for Neural
Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2204.02338v2
- Date: Sat, 6 Jan 2024 16:28:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 01:00:22.239068
- Title: MGDCF: Distance Learning via Markov Graph Diffusion for Neural
Collaborative Filtering
- Title(参考訳): mgdcf: ニューラルコラボレーティブフィルタリングのためのマルコフグラフ拡散による距離学習
- Authors: Jun Hu, Bryan Hooi, Shengsheng Qian, Quan Fang, Changsheng Xu
- Abstract要約: 現状のGNNベースCFモデルとコンテキスト符号化に基づく従来の1層NRLモデルとの等価性を示す。
マルコフグラフ拡散協調フィルタ (MGDCF) を用いて, 最先端のGNNベースCFモデルを一般化する。
- 参考スコア(独自算出の注目度): 96.65234340724237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have recently been utilized to build
Collaborative Filtering (CF) models to predict user preferences based on
historical user-item interactions. However, there is relatively little
understanding of how GNN-based CF models relate to some traditional Network
Representation Learning (NRL) approaches. In this paper, we show the
equivalence between some state-of-the-art GNN-based CF models and a traditional
1-layer NRL model based on context encoding. Based on a Markov process that
trades off two types of distances, we present Markov Graph Diffusion
Collaborative Filtering (MGDCF) to generalize some state-of-the-art GNN-based
CF models. Instead of considering the GNN as a trainable black box that
propagates learnable user/item vertex embeddings, we treat GNNs as an
untrainable Markov process that can construct constant context features of
vertices for a traditional NRL model that encodes context features with a
fully-connected layer. Such simplification can help us to better understand how
GNNs benefit CF models. Especially, it helps us realize that ranking losses
play crucial roles in GNN-based CF tasks. With our proposed simple yet powerful
ranking loss InfoBPR, the NRL model can still perform well without the context
features constructed by GNNs. We conduct experiments to perform detailed
analysis on MGDCF.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、最近、歴史的なユーザ-イテムインタラクションに基づいてユーザの好みを予測するために、コラボレーティブフィルタリング(CF)モデルを構築するために使用されている。
しかしながら、GNNベースのCFモデルが従来のネットワーク表現学習(NRL)アプローチとどのように関係しているかについては、ほとんど理解されていない。
本稿では,現状のGNNベースCFモデルとコンテキスト符号化に基づく従来の1層NRLモデルとの等価性を示す。
2種類の距離をトレードオフするマルコフプロセスに基づいて、マルコフグラフ拡散協調フィルタ(MGDCF)を提案し、最先端のGNNベースのCFモデルを一般化する。
学習可能なユーザ/イテム頂点埋め込みを伝播するトレーニング可能なブラックボックスとしてGNNを検討する代わりに、GNNを、完全に接続されたレイヤでコンテキスト特徴をエンコードする従来のNRLモデルに対して、頂点の一定のコンテキスト特徴を構築することができる訓練不可能なマルコフプロセスとして扱う。
このような単純化は、GNNがCFモデルにどのような恩恵をもたらすのかをよりよく理解するのに役立ちます。
特に、GNNベースのCFタスクにおいてランキング損失が重要な役割を担っていることに気付くのに役立ちます。
提案したシンプルだが強力なランキング損失InfoBPRにより、NRLモデルはGNNが構築したコンテキスト機能なしでも良好な性能を発揮する。
mgdcfの詳細な分析を行う実験を行った。
関連論文リスト
- Graph Neural Networks at a Fraction [1.8175282137722093]
本稿では、四元数空間を利用してノード表現を計算するフレームワークである四元数メッセージパッシングニューラルネットワーク(QMPNN)を紹介する。
GNN や QMPNN のコンテキストにおける適用性を再定義する。
論文 参考訳(メタデータ) (2025-02-10T03:55:09Z) - LOGIN: A Large Language Model Consulted Graph Neural Network Training Framework [30.54068909225463]
我々は,GNN設計プロセスの合理化とLarge Language Models(LLM)の利点を活用して,下流タスクにおけるGNNの性能向上を目指す。
我々は,LLMs-as-Consultants(LLMs-as-Consultants)という新たなパラダイムを策定し,LLMとGNNを対話的に統合する。
両グラフのノード分類におけるLOGINの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2024-05-22T18:17:20Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - ReFactor GNNs: Revisiting Factorisation-based Models from a Message-Passing Perspective [36.744669438010625]
本稿では、ReFactor GNNを提案することにより、因子モデル(FM)とグラフニューラルネットワーク(GNN)のギャップを埋める。
我々は、勾配降下手順をメッセージパッシング操作として再構成することにより、FMをGNNとしてキャストする方法を示す。
我々のGNNは、FMに匹敵するトランスダクティブ性能と最先端のインダクティブ性能を実現し、パラメータの桁数を桁違いに減らした。
論文 参考訳(メタデータ) (2022-07-20T15:39:30Z) - KerGNNs: Interpretable Graph Neural Networks with Graph Kernels [14.421535610157093]
グラフニューラルネットワーク(GNN)は、下流グラフ関連タスクにおける最先端の手法となっている。
我々は新しいGNNフレームワークKernel Graph Neural Networks(KerGNNs)を提案する。
KerGNNはグラフカーネルをGNNのメッセージパッシングプロセスに統合する。
提案手法は,既存の最先端手法と比較して,競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-01-03T06:16:30Z) - Hybrid Graph Neural Networks for Few-Shot Learning [85.93495480949079]
グラフニューラルネットワーク(GNN)は、数発の学習問題に対処するために使用されている。
帰納的設定の下では、既存のGNNベースのメソッドは競争力が少ない。
本稿では2つのGNN(インスタンスGNNとプロトタイプGNN)からなる新しいハイブリッドGNNモデルを提案する。
論文 参考訳(メタデータ) (2021-12-13T10:20:15Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Efficient Probabilistic Logic Reasoning with Graph Neural Networks [63.099999467118245]
マルコフ論理ネットワーク(MLN)は、多くの知識グラフ問題に対処するために用いられる。
MLNの推論は計算集約的であり、MLNの産業規模での応用は非常に困難である。
本稿では,表現力とモデルの単純さとのバランスのよいグラフニューラルネット(GNN)モデルであるExpressGNNを提案する。
論文 参考訳(メタデータ) (2020-01-29T23:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。