論文の概要: A Multi-Strategy based Pre-Training Method for Cold-Start Recommendation
- arxiv url: http://arxiv.org/abs/2112.02275v1
- Date: Sat, 4 Dec 2021 08:11:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 07:36:38.993212
- Title: A Multi-Strategy based Pre-Training Method for Cold-Start Recommendation
- Title(参考訳): コールドスタート推薦のためのマルチストラテジーベース事前学習法
- Authors: Bowen Hao, Hongzhi Yin, Jing Zhang, Cuiping Li, and Hong Chen
- Abstract要約: コールドスタート問題はレコメンデーションタスクの根本的な課題である。
グラフニューラルネットワーク(GNN)モデルにおける最近の自己教師付き学習(SSL)であるPT-GNNは、コールドスタート埋め込みを再構築するためにGNNモデルを事前訓練する。
本稿では,PT-GNNをモデルアーキテクチャやプレテキストタスクの観点から拡張する,マルチストラテジーに基づく冷間開始推薦(MPT)のための事前学習手法を提案する。
- 参考スコア(独自算出の注目度): 28.337475919795008
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cold-start problem is a fundamental challenge for recommendation tasks. The
recent self-supervised learning (SSL) on Graph Neural Networks (GNNs) model,
PT-GNN, pre-trains the GNN model to reconstruct the cold-start embeddings and
has shown great potential for cold-start recommendation. However, due to the
over-smoothing problem, PT-GNN can only capture up to 3-order relation, which
can not provide much useful auxiliary information to depict the target
cold-start user or item. Besides, the embedding reconstruction task only
considers the intra-correlations within the subgraph of users and items, while
ignoring the inter-correlations across different subgraphs. To solve the above
challenges, we propose a multi-strategy based pre-training method for
cold-start recommendation (MPT), which extends PT-GNN from the perspective of
model architecture and pretext tasks to improve the cold-start recommendation
performance. Specifically, in terms of the model architecture, in addition to
the short-range dependencies of users and items captured by the GNN encoder, we
introduce a Transformer encoder to capture long-range dependencies. In terms of
the pretext task, in addition to considering the intra-correlations of users
and items by the embedding reconstruction task, we add embedding contrastive
learning task to capture inter-correlations of users and items. We train the
GNN and Transformer encoders on these pretext tasks under the meta-learning
setting to simulate the real cold-start scenario, making the model easily and
rapidly being adapted to new cold-start users and items. Experiments on three
public recommendation datasets show the superiority of the proposed MPT model
against the vanilla GNN models, the pre-training GNN model on user/item
embedding inference and the recommendation task.
- Abstract(参考訳): コールドスタート問題はレコメンデーションタスクの根本的な課題である。
グラフニューラルネットワーク(GNN)モデル上の最近の自己教師型学習(SSL)であるPT-GNNは、コールドスタートの埋め込みを再構築するためにGNNモデルを事前訓練し、コールドスタートの推奨に大きな可能性を示している。
しかし, PT-GNNは, 過度にスムースな問題のため, 最大3次関係しか取得できないため, 対象のコールドスタートユーザやアイテムを描写するのに有用な補助情報を提供できない。
さらに、埋め込み再構築タスクは、ユーザとアイテムのサブグラフ内の相関のみを考慮し、異なるサブグラフ間の相関を無視する。
以上の課題を解決するために, PT-GNNをモデルアーキテクチャやプレテキストタスクの観点から拡張し, コールドスタートレコメンデーション性能を向上させる, マルチストラテジーに基づくMPT事前学習手法を提案する。
具体的には,モデルアーキテクチャの観点から,gnnエンコーダでキャプチャされたユーザとアイテムの短距離依存性に加えて,長距離依存関係をキャプチャするトランスフォーマエンコーダを導入する。
プリテキストタスクでは,ユーザとアイテムの相関関係を組込み再構成タスクによって考慮することに加えて,ユーザとアイテムの相関関係を捉えるために,埋め込み型コントラスト学習タスクを追加する。
GNNとTransformerエンコーダをメタラーニング設定下でトレーニングし、実際のコールドスタートシナリオをシミュレートし、新しいコールドスタートユーザやアイテムに容易に迅速に適応できるようにします。
3つのパブリックレコメンデーションデータセットの実験では,提案したMPTモデルのバニラGNNモデルに対する優位性,ユーザ/イテム埋め込み推論における事前学習GNNモデル,レコメンデーションタスクが示されている。
関連論文リスト
- Linear-Time Graph Neural Networks for Scalable Recommendations [50.45612795600707]
推薦システムの鍵は、過去のユーザとイテムのインタラクションに基づいて、ユーザの将来の振る舞いを予測することである。
近年、リコメンデータシステムの予測性能を高めるためにグラフニューラルネットワーク(GNN)を活用することへの関心が高まっている。
我々は,従来のMF手法と同等のスケーラビリティを実現するために,GNNベースのレコメンデータシステムをスケールアップするための線形時間グラフニューラルネットワーク(LTGNN)を提案する。
論文 参考訳(メタデータ) (2024-02-21T17:58:10Z) - A Social-aware Gaussian Pre-trained Model for Effective Cold-start
Recommendation [25.850274659792305]
グラフニューラルネットワーク(GNN)の事前学習段階におけるユーザ関係とインタラクションデータを符号化する新しい推薦モデルであるSGP(Social-Aware Gaussian Pre-trained Model)を提案する。
NDCG@10では,3つの公開データセットに対する実験の結果,SGPモデルは16の競争ベースラインと比較して,最大7.7%の精度で最高のベースラインを達成できた。
さらに,SGPは,特にユーザが友人の提案によってシステムに新規に登録する場合に,コールドスタート問題を効果的に軽減できることを示す。
論文 参考訳(メタデータ) (2023-11-27T13:04:33Z) - Meta-Learning with Adaptive Weighted Loss for Imbalanced Cold-Start
Recommendation [4.379304291229695]
本稿では,勾配に基づくメタラーニングに基づく新しいシーケンシャルレコメンデーションフレームワークを提案する。
私たちの仕事は、コールドスタートシーケンシャルなレコメンデーションシナリオにおいて、不均衡な評価の影響に最初に取り組みます。
論文 参考訳(メタデータ) (2023-02-28T15:18:42Z) - GPatch: Patching Graph Neural Networks for Cold-Start Recommendations [20.326139541161194]
コールドスタートはレコメンデータシステムにおいて不可欠で永続的な問題です。
最先端のソリューションは、コールドスタートと既存のユーザ/イテムの両方のためのハイブリッドモデルのトレーニングに依存しています。
本稿では,2つの別個のコンポーネントを含むGNNベースのフレームワーク(GPatch)を提案する。
論文 参考訳(メタデータ) (2022-09-25T13:16:39Z) - An Adaptive Graph Pre-training Framework for Localized Collaborative
Filtering [79.17319280791237]
局所的協調フィルタリング(ADAPT)のための適応グラフ事前学習フレームワークを提案する。
ADAPTは、異なるグラフにまたがる共通知識と、各グラフの特異性の両方をキャプチャする。
ユーザ/イテムの埋め込みを転送する必要はなく、異なるグラフにまたがる共通知識と各グラフのユニークさの両方をキャプチャできる。
論文 参考訳(メタデータ) (2021-12-14T06:53:13Z) - Learning to Learn a Cold-start Sequential Recommender [70.5692886883067]
コールドスタート勧告は、現代のオンラインアプリケーションにおいて緊急の問題である。
メタ学習に基づくコールドスタートシーケンシャルレコメンデーションフレームワークMetaCSRを提案する。
MetaCSRは、通常のユーザの行動から共通のパターンを学ぶ能力を持っている。
論文 参考訳(メタデータ) (2021-10-18T08:11:24Z) - Causal Incremental Graph Convolution for Recommender System Retraining [89.25922726558875]
実世界のレコメンデーションシステムは、新しいデータを維持するために定期的に再トレーニングする必要がある。
本研究では,GCNに基づくレコメンデータモデルを用いて,グラフ畳み込みネットワーク(GCN)を効率的に再学習する方法を検討する。
論文 参考訳(メタデータ) (2021-08-16T04:20:09Z) - Privileged Graph Distillation for Cold Start Recommendation [57.918041397089254]
レコメンデーションシステムにおけるコールドスタートの問題は、歴史的相互作用の記録のない属性に基づいて新しいユーザー(イテム)に推奨することである。
特権グラフ蒸留モデル(PGD)を提案する。
提案手法は,新規ユーザ,新規ユーザ,新規ユーザを対象とする異なるコールドスタートシナリオに適用可能である。
論文 参考訳(メタデータ) (2021-05-31T14:05:27Z) - LightGCN: Simplifying and Powering Graph Convolution Network for
Recommendation [100.76229017056181]
Graph Convolution Network (GCN)は、協調フィルタリングのための新しい最先端技術となった。
本研究は,GCNの設計を簡略化し,より簡潔かつ適切なレコメンデーションを実現することを目的としている。
我々は,光GCNと呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-02-06T06:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。