論文の概要: Long Short-Term Preference Modeling for Continuous-Time Sequential
Recommendation
- arxiv url: http://arxiv.org/abs/2208.00593v1
- Date: Mon, 1 Aug 2022 03:44:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:52:08.433008
- Title: Long Short-Term Preference Modeling for Continuous-Time Sequential
Recommendation
- Title(参考訳): 連続時間逐次レコメンデーションのための長期短期選好モデル
- Authors: Huixuan Chi, Hao Xu, Hao Fu, Mengya Liu, Mengdi Zhang, Yuji Yang,
Qinfen Hao, Wei Wu
- Abstract要約: 現実のシナリオでは、ユーザの短期的嗜好は時間とともに動的に進化する。
連続時間系列勧告のための長期的短期予測モデルを提案する。
私たちのメモリメカニズムは、ワンホップ情報を格納するだけでなく、新しいインタラクションをオンラインで引き起こすことができます。
- 参考スコア(独自算出の注目度): 9.965917701831746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modeling the evolution of user preference is essential in recommender
systems. Recently, dynamic graph-based methods have been studied and achieved
SOTA for recommendation, majority of which focus on user's stable long-term
preference. However, in real-world scenario, user's short-term preference
evolves over time dynamically. Although there exists sequential methods that
attempt to capture it, how to model the evolution of short-term preference with
dynamic graph-based methods has not been well-addressed yet. In particular: 1)
existing methods do not explicitly encode and capture the evolution of
short-term preference as sequential methods do; 2) simply using last few
interactions is not enough for modeling the changing trend. In this paper, we
propose Long Short-Term Preference Modeling for Continuous-Time Sequential
Recommendation (LSTSR) to capture the evolution of short-term preference under
dynamic graph. Specifically, we explicitly encode short-term preference and
optimize it via memory mechanism, which has three key operations: Message,
Aggregate and Update. Our memory mechanism can not only store one-hop
information, but also trigger with new interactions online. Extensive
experiments conducted on five public datasets show that LSTSR consistently
outperforms many state-of-the-art recommendation methods across various lines.
- Abstract(参考訳): ユーザの好みの進化をモデル化することはレコメンデーションシステムに不可欠である。
近年,動的なグラフベース手法が研究され,ユーザの長期的嗜好の安定に焦点をあてたsomaが提案されている。
しかし、現実のシナリオでは、ユーザの短期的嗜好は時間とともに動的に進化する。
これをキャプチャしようとする逐次的手法は存在するが、動的グラフベースの手法で短期的嗜好の進化をモデル化する方法はまだよくわかっていない。
特に
1) 既存の方法は,シーケンシャルな方法のように,短期的選好の進化を明示的にエンコードし,捉えない。
2) 最後の数回の使用だけでは、変化傾向をモデル化するには不十分です。
本稿では,動的グラフ下での短期選好の進化を捉えるために,連続時間逐次レコメンデーション(lstsr)のための長期短期選好モデルを提案する。
具体的には、短期的な好みを明示的にエンコードし、メッセージ、集約、更新という3つの重要な操作を持つメモリ機構を通じて最適化します。
メモリメカニズムはワンホップ情報を格納するだけでなく、新しいインタラクションをオンラインで起動する。
5つの公開データセットで実施された大規模な実験により、LSTSRは様々なラインにわたる最先端のレコメンデーション手法を一貫して上回っていることが示された。
関連論文リスト
- Bidirectional Gated Mamba for Sequential Recommendation [56.85338055215429]
最近の進歩であるMambaは、時系列予測において例外的なパフォーマンスを示した。
SIGMA(Selective Gated Mamba)と呼ばれる,シークエンシャルレコメンデーションのための新しいフレームワークを紹介する。
以上の結果から,SIGMAは5つの実世界のデータセットにおいて,現在のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-08-21T09:12:59Z) - MaTrRec: Uniting Mamba and Transformer for Sequential Recommendation [6.74321828540424]
ユーザ行動系列内の動的嗜好や依存関係を分析し,パーソナライズされたレコメンデーションを提供することを目的としている。
状態空間モデル(SSM)表現モデルであるMambaに着想を得た結果,Mambaの推奨効率は短い相互作用シーケンスで制限されることがわかった。
我々は,MambaとTransformerの強みを組み合わせた新しいモデルMaTrRecを提案する。
論文 参考訳(メタデータ) (2024-07-27T12:07:46Z) - SelfGNN: Self-Supervised Graph Neural Networks for Sequential Recommendation [15.977789295203976]
本稿では,SelfGNN(Self-Supervised Graph Neural Network)と呼ばれる新しいフレームワークを提案する。
SelfGNNフレームワークは、時間間隔に基づいて短期グラフを符号化し、グラフニューラルネットワーク(GNN)を使用して短期的な協調関係を学習する。
パーソナライズされた自己強化学習構造は、長期のユーザ関心と個人の安定性に基づいて、短期的なグラフにおけるノイズを緩和することにより、モデルロバスト性を高める。
論文 参考訳(メタデータ) (2024-05-31T14:53:12Z) - Graph Based Long-Term And Short-Term Interest Model for Click-Through
Rate Prediction [8.679270588565398]
GLSMと呼ばれるグラフに基づく長期短期利害モデルを提案する。
長期ユーザ行動のキャプチャのための多目的グラフ構造と、短期情報モデリングのための多シナリオ異種シーケンスモデルと、長期および短期行動からの融合情報に対する適応的融合機構とから構成される。
論文 参考訳(メタデータ) (2023-06-05T07:04:34Z) - Multi-Behavior Sequential Recommendation with Temporal Graph Transformer [66.10169268762014]
マルチビヘイビア・インタラクティブなパターンを意識した動的ユーザ・イテム関係学習に取り組む。
本稿では,動的短期および長期のユーザ・イテム対話パターンを共同でキャプチャする,TGT(Temporal Graph Transformer)レコメンデーションフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T15:42:54Z) - Modeling Dynamic User Preference via Dictionary Learning for Sequential
Recommendation [133.8758914874593]
ユーザの好みのダイナミックさを捉えることは、ユーザの将来の行動を予測する上で非常に重要です。
浅いものも深いものも含む、既存のレコメンデーションアルゴリズムの多くは、このようなダイナミクスを独立してモデル化することが多い。
本稿では、ユーザのシーケンシャルな振る舞いを、ユーザ好みの潜伏した空間に埋め込むことの問題について考察する。
論文 参考訳(メタデータ) (2022-04-02T03:23:46Z) - PEN4Rec: Preference Evolution Networks for Session-based Recommendation [10.37267170480306]
セッションベースのレコメンデーションは、匿名セッションにおける歴史的な振る舞いに基づいて、ユーザの次のアクションを予測することを目的としている。
より良いレコメンデーションのためには、ユーザの好みとダイナミクスを捉えることが不可欠です。
本稿では,セッションベースレコメンデーション(PEN4Rec)のためのPreference Evolution Networksを提案する。
論文 参考訳(メタデータ) (2021-06-17T08:18:52Z) - Dynamic Memory based Attention Network for Sequential Recommendation [79.5901228623551]
DMAN(Dynamic Memory-based Attention Network)と呼ばれる新しい連続的推薦モデルを提案する。
長い動作シーケンス全体を一連のサブシーケンスに分割し、モデルをトレーニングし、ユーザの長期的な利益を維持するためにメモリブロックのセットを維持する。
動的メモリに基づいて、ユーザの短期的および長期的関心を明示的に抽出し、組み合わせて効率的な共同推薦を行うことができる。
論文 参考訳(メタデータ) (2021-02-18T11:08:54Z) - MEANTIME: Mixture of Attention Mechanisms with Multi-temporal Embeddings
for Sequential Recommendation [12.386304516106854]
自己注意に基づくモデルは、シーケンシャルなレコメンデーションタスクで最先端のパフォーマンスを達成した。
これらのモデルは、ユーザの履歴のシーケンシャルな性質を活用するために、単純な位置埋め込みに依存している。
本稿では,ユーザの行動系列から様々なパターンを捉えるために,複数の時間的埋め込みを用いたMEANTIMEを提案する。
論文 参考訳(メタデータ) (2020-08-19T05:32:14Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z) - Sequential Recommender via Time-aware Attentive Memory Network [67.26862011527986]
本稿では,注意機構と繰り返し単位を改善するための時間ゲーティング手法を提案する。
また,長期と短期の嗜好を統合するマルチホップ・タイムアウェア・アテンテーティブ・メモリ・ネットワークを提案する。
提案手法は,候補探索タスクに対してスケーラブルであり,ドット積に基づくTop-Kレコメンデーションのための潜在因数分解の非線形一般化とみなすことができる。
論文 参考訳(メタデータ) (2020-05-18T11:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。