論文の概要: Learnable Model Augmentation Self-Supervised Learning for Sequential
Recommendation
- arxiv url: http://arxiv.org/abs/2204.10128v1
- Date: Thu, 21 Apr 2022 14:30:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 14:51:42.166764
- Title: Learnable Model Augmentation Self-Supervised Learning for Sequential
Recommendation
- Title(参考訳): シークエンシャルレコメンデーションのための学習可能なモデル強化自己教師付き学習
- Authors: Yongjing Hao, Pengpeng Zhao, Xuefeng Xian, Guanfeng Liu, Deqing Wang,
Lei Zhao, Yanchi Liu and Victor S. Sheng
- Abstract要約: シーケンシャルレコメンデーションのための学習可能なモデル拡張型自己教師型学習(LMA4Rec)を提案する。
LMA4Recはまず、ビューを生成するためにデータ拡張の補足方法としてモデル拡張を利用する。
次に、コントラストビュー間で自己教師付き学習を使用して、オリジナルのシーケンスから自己教師付き信号を抽出する。
- 参考スコア(独自算出の注目度): 36.81597777126902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequential Recommendation aims to predict the next item based on user
behaviour. Recently, Self-Supervised Learning (SSL) has been proposed to
improve recommendation performance. However, most of existing SSL methods use a
uniform data augmentation scheme, which loses the sequence correlation of an
original sequence. To this end, in this paper, we propose a Learnable Model
Augmentation self-supervised learning for sequential Recommendation (LMA4Rec).
Specifically, LMA4Rec first takes model augmentation as a supplementary method
for data augmentation to generate views. Then, LMA4Rec uses learnable Bernoulli
dropout to implement model augmentation learnable operations. Next,
self-supervised learning is used between the contrastive views to extract
self-supervised signals from an original sequence. Finally, experiments on
three public datasets show that the LMA4Rec method effectively improves
sequential recommendation performance compared with baseline methods.
- Abstract(参考訳): Sequential Recommendationは、ユーザの振る舞いに基づいて次の項目を予測することを目的としている。
近年,推薦性能を改善するために自己監視学習(SSL)が提案されている。
しかし、既存のSSLメソッドのほとんどは、元のシーケンスのシーケンス相関をなくす均一なデータ拡張スキームを使用している。
そこで本稿では,Learningable Model Augmentation Self-supervised learning for sequence Recommendation (LMA4Rec)を提案する。
具体的には、LMA4Recはまず、ビューを生成するためのデータ拡張の補足方法として、モデル拡張を利用する。
次に、LMA4Recは学習可能なBernoulliドロップアウトを使用してモデル拡張学習操作を実装します。
次に、コントラストビュー間の自己教師あり学習を用いて、元のシーケンスから自己教師あり信号を抽出する。
最後に、LMA4Rec法は、ベースライン法と比較してシーケンシャルレコメンデーション性能を効果的に向上することを示す。
関連論文リスト
- Diffusion-based Contrastive Learning for Sequential Recommendation [6.3482831836623355]
本稿では,CaDiRecという,文脈対応拡散に基づく逐次推薦のためのコントラスト学習を提案する。
CaDiRecは、コンテキスト対応拡散モデルを使用して、シーケンス内の所定の位置に対する代替アイテムを生成する。
フレームワーク全体をエンドツーエンドでトレーニングし、拡散モデルとレコメンデーションモデルの間でアイテムの埋め込みを共有します。
論文 参考訳(メタデータ) (2024-05-15T14:20:37Z) - Towards Universal Sequence Representation Learning for Recommender
Systems [98.02154164251846]
我々はUniSRecという新しいユニバーサルシーケンス表現学習手法を提案する。
提案手法は、項目の関連記述テキストを用いて、異なる推薦シナリオ間で転送可能な表現を学習する。
我々のアプローチは、パラメータ効率のよい方法で、新しいレコメンデーションドメインやプラットフォームに効果的に移行できます。
論文 参考訳(メタデータ) (2022-06-13T07:21:56Z) - Improving Contrastive Learning with Model Augmentation [123.05700988581806]
このシーケンシャルレコメンデーションは,ユーザ行動における次の項目を予測することを目的としている。
シーケンスにおけるデータの分散性やノイズの問題から,新たな自己教師付き学習(SSL)パラダイムが提案され,性能が向上した。
論文 参考訳(メタデータ) (2022-03-25T06:12:58Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z) - Sequential Recommendation with Self-Attentive Multi-Adversarial Network [101.25533520688654]
逐次レコメンデーションにおける文脈情報の影響を明示的にモデル化するためのMFGAN(Multi-Factor Generative Adversarial Network)を提案する。
当社のフレームワークは,複数種類の因子情報を組み込むことが柔軟であり,各因子が推奨決定にどのように貢献するかを時間とともに追跡することができる。
論文 参考訳(メタデータ) (2020-05-21T12:28:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。