論文の概要: USE: Dynamic User Modeling with Stateful Sequence Models
- arxiv url: http://arxiv.org/abs/2403.13344v1
- Date: Wed, 20 Mar 2024 07:05:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 17:48:13.138702
- Title: USE: Dynamic User Modeling with Stateful Sequence Models
- Title(参考訳): USE:ステートフルシーケンスモデルによる動的ユーザモデリング
- Authors: Zhihan Zhou, Qixiang Fang, Leonardo Neves, Francesco Barbieri, Yozen Liu, Han Liu, Maarten W. Bos, Ron Dotsch,
- Abstract要約: User Stateful Embedding (USE)は、徹底的な再処理を必要とせずに、ユーザ埋め込みを生成する。
我々は,次世代の予測の限界を超越するために,将来のW行動予測という新たな訓練目標を導入する。
静的(固定されたユーザ行動シーケンス)および動的(定期的に更新されたユーザ行動シーケンス)設定の両方で、Snapchatユーザーの行動ログを使用して、8つの下流タスクで実験を行う。
- 参考スコア(独自算出の注目度): 26.74966828348815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: User embeddings play a crucial role in user engagement forecasting and personalized services. Recent advances in sequence modeling have sparked interest in learning user embeddings from behavioral data. Yet behavior-based user embedding learning faces the unique challenge of dynamic user modeling. As users continuously interact with the apps, user embeddings should be periodically updated to account for users' recent and long-term behavior patterns. Existing methods highly rely on stateless sequence models that lack memory of historical behavior. They have to either discard historical data and use only the most recent data or reprocess the old and new data jointly. Both cases incur substantial computational overhead. To address this limitation, we introduce User Stateful Embedding (USE). USE generates user embeddings and reflects users' evolving behaviors without the need for exhaustive reprocessing by storing previous model states and revisiting them in the future. Furthermore, we introduce a novel training objective named future W-behavior prediction to transcend the limitations of next-token prediction by forecasting a broader horizon of upcoming user behaviors. By combining it with the Same User Prediction, a contrastive learning-based objective that predicts whether different segments of behavior sequences belong to the same user, we further improve the embeddings' distinctiveness and representativeness. We conducted experiments on 8 downstream tasks using Snapchat users' behavioral logs in both static (i.e., fixed user behavior sequences) and dynamic (i.e., periodically updated user behavior sequences) settings. We demonstrate USE's superior performance over established baselines. The results underscore USE's effectiveness and efficiency in integrating historical and recent user behavior sequences into user embeddings in dynamic user modeling.
- Abstract(参考訳): ユーザエンゲージメント予測とパーソナライズドサービスにおいて、ユーザ埋め込みは重要な役割を果たす。
シーケンスモデリングの最近の進歩は、行動データからユーザ埋め込みを学習することへの関心を喚起している。
しかし、振る舞いに基づくユーザ埋め込み学習は、動的なユーザモデリングのユニークな課題に直面します。
ユーザがアプリと継続的に対話するにつれて、ユーザの最近の長期的行動パターンを考慮するために、ユーザの埋め込みを定期的に更新する必要がある。
既存の手法は、過去の行動の記憶に欠けるステートレスなシーケンスモデルに大きく依存している。
過去のデータを破棄し、最新のデータのみを使用するか、古いデータと新しいデータを共同で再処理する必要がある。
どちらのケースもかなりの計算オーバーヘッドを発生させる。
この制限に対処するために、User Stateful Embedding (USE)を紹介します。
USEはユーザ埋め込みを生成し、過去のモデル状態を格納し、将来再考することで、徹底的な再処理を必要とせずに、ユーザの進化する振る舞いを反映する。
さらに,今後のユーザ行動のより広い視野で予測することで,次世代予測の限界を超越する,未来のW行動予測という新たな学習目標を導入する。
異なる動作系列のセグメントが同一ユーザに属するかどうかを予測する対照的な学習目標である同じユーザ予測と組み合わせることで、埋め込みの特異性と代表性をさらに向上する。
静的(固定されたユーザ行動シーケンス)と動的(定期的に更新されたユーザ行動シーケンス)設定の両方で、Snapchatユーザーの行動ログを使用して、8つの下流タスクの実験を行った。
確立されたベースラインよりもUSEの優れたパフォーマンスを実証する。
その結果, 動的ユーザモデリングにおいて, 歴史的および最近のユーザ動作シーケンスをユーザ埋め込みに組み込む上で, USEの有効性と効率性を強調した。
関連論文リスト
- Look into the Future: Deep Contextualized Sequential Recommendation [28.726897673576865]
我々は、Look into the Future(LIFT)と呼ばれる、シーケンシャルなレコメンデーションの新しいフレームワークを提案する。
LIFTはシーケンシャルなレコメンデーションのコンテキストを構築し、活用する。
本実験では,クリックスルー率予測および評価予測タスクにおいて,LIFTは大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-05-23T09:34:28Z) - PUNR: Pre-training with User Behavior Modeling for News Recommendation [26.349183393252115]
ニュースレコメンデーションは、ユーザーの行動に基づいてクリック行動を予測することを目的としている。
ユーザの表現を効果的にモデル化する方法が、望ましいニュースを推奨する鍵である。
本研究では,ユーザ行動マスキングとユーザ行動生成という2つのタスクを備えた教師なし事前学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-25T08:03:52Z) - Latent User Intent Modeling for Sequential Recommenders [92.66888409973495]
逐次リコメンデータモデルは、プラットフォーム上での氏のインタラクション履歴に基づいて、ユーザが次に対話する可能性のあるアイテムを予測することを学習する。
しかし、ほとんどのシーケンシャルなレコメンデータは、ユーザの意図に対する高いレベルの理解を欠いている。
したがって、インテントモデリングはユーザー理解と長期ユーザーエクスペリエンスの最適化に不可欠である。
論文 参考訳(メタデータ) (2022-11-17T19:00:24Z) - Recommender Transformers with Behavior Pathways [50.842316273120744]
Recommender Transformer (RETR) を新しいパスウェイアテンション機構で構築する。
実世界の7つのデータセットにおけるRETRの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-06-13T08:58:37Z) - PinnerFormer: Sequence Modeling for User Representation at Pinterest [60.335384724891746]
我々は、ユーザの将来的なエンゲージメントを予測するためにトレーニングされたユーザ表現であるPinnerFormerを紹介する。
従来のアプローチとは異なり、新しい密集した全アクション損失を通じて、モデリングをバッチインフラストラクチャに適応させます。
その結果,1日に1回発生するバッチユーザ埋め込みと,ユーザがアクションを行うたびに発生するリアルタイムユーザ埋め込みとの間には,大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2022-05-09T18:26:51Z) - Modeling Dynamic User Preference via Dictionary Learning for Sequential
Recommendation [133.8758914874593]
ユーザの好みのダイナミックさを捉えることは、ユーザの将来の行動を予測する上で非常に重要です。
浅いものも深いものも含む、既存のレコメンデーションアルゴリズムの多くは、このようなダイナミクスを独立してモデル化することが多い。
本稿では、ユーザのシーケンシャルな振る舞いを、ユーザ好みの潜伏した空間に埋め込むことの問題について考察する。
論文 参考訳(メタデータ) (2022-04-02T03:23:46Z) - Learning Self-Modulating Attention in Continuous Time Space with
Applications to Sequential Recommendation [102.24108167002252]
本稿では,複雑で非線形に進化する動的ユーザの嗜好をモデル化する,自己変調型注意ネットワークを提案する。
提案手法がトップNシーケンシャルなレコメンデーションタスクに与える影響を実証的に示すとともに,3つの大規模実世界のデータセットによる結果から,我々のモデルが最先端のパフォーマンスを達成できることを示す。
論文 参考訳(メタデータ) (2022-03-30T03:54:11Z) - TEA: A Sequential Recommendation Framework via Temporally Evolving
Aggregations [12.626079984394766]
動的ユーザ・イテム不均質グラフに基づく新しいシーケンシャル・レコメンデーション・フレームワークを提案する。
条件付き乱数場を利用して不均一なグラフとユーザ動作を集約し,確率推定を行う。
提案したフレームワークのスケーラブルで柔軟な実装を提供しています。
論文 参考訳(メタデータ) (2021-11-14T15:54:23Z) - Dynamic Memory based Attention Network for Sequential Recommendation [79.5901228623551]
DMAN(Dynamic Memory-based Attention Network)と呼ばれる新しい連続的推薦モデルを提案する。
長い動作シーケンス全体を一連のサブシーケンスに分割し、モデルをトレーニングし、ユーザの長期的な利益を維持するためにメモリブロックのセットを維持する。
動的メモリに基づいて、ユーザの短期的および長期的関心を明示的に抽出し、組み合わせて効率的な共同推薦を行うことができる。
論文 参考訳(メタデータ) (2021-02-18T11:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。