論文の概要: IDNP: Interest Dynamics Modeling using Generative Neural Processes for
Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2208.04600v1
- Date: Tue, 9 Aug 2022 08:33:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 13:14:03.331136
- Title: IDNP: Interest Dynamics Modeling using Generative Neural Processes for
Sequential Recommendation
- Title(参考訳): IDNP:シークエンシャルレコメンデーションのための生成ニューラルプロセスを用いた関心ダイナミクスモデリング
- Authors: Jing Du, Zesheng Ye, Lina Yao, Bin Guo, Zhiwen Yu
- Abstract要約: 我々は,機能的視点からユーザ興味をモデル化するために,生成型 textbfNeural textbfProcesses を用いた textbfInterest textbfDynamics モデリングフレームワークを提案する。
本モデルでは,各種評価指標の最先端性に優れる。
- 参考スコア(独自算出の注目度): 40.4445022666304
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent sequential recommendation models rely increasingly on consecutive
short-term user-item interaction sequences to model user interests. These
approaches have, however, raised concerns about both short- and long-term
interests. (1) {\it short-term}: interaction sequences may not result from a
monolithic interest, but rather from several intertwined interests, even within
a short period of time, resulting in their failures to model skip behaviors;
(2) {\it long-term}: interaction sequences are primarily observed sparsely at
discrete intervals, other than consecutively over the long run. This renders
difficulty in inferring long-term interests, since only discrete interest
representations can be derived, without taking into account interest dynamics
across sequences. In this study, we address these concerns by learning (1)
multi-scale representations of short-term interests; and (2) dynamics-aware
representations of long-term interests. To this end, we present an
\textbf{I}nterest \textbf{D}ynamics modeling framework using generative
\textbf{N}eural \textbf{P}rocesses, coined IDNP, to model user interests from a
functional perspective. IDNP learns a global interest function family to define
each user's long-term interest as a function instantiation, manifesting
interest dynamics through function continuity. Specifically, IDNP first encodes
each user's short-term interactions into multi-scale representations, which are
then summarized as user context. By combining latent global interest with user
context, IDNP then reconstructs long-term user interest functions and predicts
interactions at upcoming query timestep. Moreover, IDNP can model such interest
functions even when interaction sequences are limited and non-consecutive.
Extensive experiments on four real-world datasets demonstrate that our model
outperforms state-of-the-arts on various evaluation metrics.
- Abstract(参考訳): 最近のシーケンシャルレコメンデーションモデルは、ユーザ関心をモデル化するために、連続した短期的なユーザ-イテム相互作用シーケンスに依存している。
しかし、これらのアプローチは短期と長期の両方の利益に懸念を抱いている。
1) 短期: 相互作用列はモノリシックな利害関係から生じるものではなく、たとえ短い期間であってもいくつかの相互に絡み合った利害関係から生じるものであり、それらの相互作用列はスキップ行動のモデル化に失敗する。
これは、配列間の興味のダイナミクスを考慮せずに、離散的な関心表現のみを導出できるため、長期的な関心を推測することの難しさを表わす。
本研究では,(1)短期利害のマルチスケール表現,(2)長期利害のダイナミックス認識表現を学習することで,これらの懸念に対処する。
この目的のために、生成的 \textbf{N}eural \textbf{P}rocesses(IDNP)を用いて、機能的視点からユーザ興味をモデル化する、 \textbf{I}nterest \textbf{D}ynamicsモデリングフレームワークを提案する。
IDNPはグローバルな関心関数ファミリーを学習し、各ユーザの長期的な関心を関数インスタンス化として定義し、関数連続性を通じて関心ダイナミクスを示す。
具体的には、IDNPはまず各ユーザの短期的インタラクションをマルチスケール表現にエンコードし、それをユーザコンテキストとして要約する。
潜在グローバル関心とユーザコンテキストを組み合わせることで、idnpは長期ユーザ関心関数を再構築し、今後のクエリ時間ステップでインタラクションを予測する。
さらに、IDNPは相互作用列が限定的かつ非連続的であっても、そのような関心関数をモデル化することができる。
4つの実世界のデータセットに関する広範囲な実験によって、我々のモデルは様々な評価指標で最先端のものよりも優れています。
関連論文リスト
- Multi-granularity Interest Retrieval and Refinement Network for Long-Term User Behavior Modeling in CTR Prediction [68.90783662117936]
クリックスルーレート(CTR)の予測は、オンラインパーソナライズプラットフォームにとって不可欠である。
近年の進歩は、リッチなユーザの振る舞いをモデル化することで、CTR予測の性能を大幅に改善できることを示している。
マルチグラニュラリティ興味検索ネットワーク(MIRRN)を提案する。
論文 参考訳(メタデータ) (2024-11-22T15:29:05Z) - LLM-assisted Explicit and Implicit Multi-interest Learning Framework for Sequential Recommendation [50.98046887582194]
本研究では,ユーザの興味を2つのレベル – 行動と意味論 – でモデル化する,明示的で暗黙的な多目的学習フレームワークを提案する。
提案するEIMFフレームワークは,小型モデルとLLMを効果的に組み合わせ,多目的モデリングの精度を向上させる。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Denoising Long- and Short-term Interests for Sequential Recommendation [11.830033570949944]
LSIDN(Long-term Interest Denoising Network)を提案する。
我々は,長期金利モデルにセッション間行動ノイズを導入することを避けるために,セッションレベルの関心抽出と進化戦略を採用している。
2つの公開データセットによる実験の結果、LSIDNは最先端モデルよりも一貫して優れていた。
論文 参考訳(メタデータ) (2024-07-20T03:52:14Z) - Learning Sequence Representations by Non-local Recurrent Neural Memory [61.65105481899744]
教師付きシーケンス表現学習のためのNon-local Recurrent Neural Memory (NRNM)を提案する。
我々のモデルは長距離依存を捉えることができ、潜伏した高レベル特徴を我々のモデルで抽出することができる。
我々のモデルは、これらのシーケンスアプリケーションごとに特別に設計された他の最先端の手法と比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-07-20T07:26:15Z) - Learning Dual Dynamic Representations on Time-Sliced User-Item
Interaction Graphs for Sequential Recommendation [62.30552176649873]
シーケンシャルレコメンデーションのための動的表現学習モデル(DRL-SRe)を考案する。
両面から動的に特徴付けるためのユーザ・イテム相互作用をモデル化するため,提案モデルでは,時間スライス毎にグローバルなユーザ・イテム相互作用グラフを構築した。
モデルが微粒な時間情報を捕捉することを可能にするため,連続時間スライス上での補助的時間予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:44:27Z) - Context-aware short-term interest first model for session-based
recommendation [0.0]
文脈対応短期関心第一モデル(CASIF)を提案する。
本研究の目的は,文脈と短期的関心を組み合わせることで,推薦の正確性を向上させることである。
最後に、短期的および長期的利息を最終利息として結合し、候補ベクトルによって乗算して推奨確率を得る。
論文 参考訳(メタデータ) (2021-03-29T11:36:00Z) - Dynamic Memory based Attention Network for Sequential Recommendation [79.5901228623551]
DMAN(Dynamic Memory-based Attention Network)と呼ばれる新しい連続的推薦モデルを提案する。
長い動作シーケンス全体を一連のサブシーケンスに分割し、モデルをトレーニングし、ユーザの長期的な利益を維持するためにメモリブロックのセットを維持する。
動的メモリに基づいて、ユーザの短期的および長期的関心を明示的に抽出し、組み合わせて効率的な共同推薦を行うことができる。
論文 参考訳(メタデータ) (2021-02-18T11:08:54Z) - MRIF: Multi-resolution Interest Fusion for Recommendation [0.0]
本稿では,ユーザの利害関係を考慮に入れた多分解能利害融合モデル(MRIF)を提案する。
提案モデルでは,ユーザの興味の動的変化を異なる時間範囲で捉えることができ,マルチ解像度のユーザ関心を組み合わせて予測を行う効果的な方法を提供する。
論文 参考訳(メタデータ) (2020-07-08T02:32:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。