論文の概要: Save, Revisit, Retain: A Scalable Framework for Enhancing User Retention in Large-Scale Recommender Systems
- arxiv url: http://arxiv.org/abs/2511.18013v1
- Date: Sat, 22 Nov 2025 10:27:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.585227
- Title: Save, Revisit, Retain: A Scalable Framework for Enhancing User Retention in Large-Scale Recommender Systems
- Title(参考訳): Save, Revisit, Retain: 大規模リコメンダシステムにおけるユーザ保持の強化を目的としたスケーラブルなフレームワーク
- Authors: Weijie Jiang, Armando Ordorica, Jaewon Yang, Olafur Gudmundsson, Yucheng Tu, Huizhong Duan,
- Abstract要約: ユーザーが以前保存されたコンテンツを見るために戻るとき、ユーザーの保持の鍵となる指標は、再考である。
特定のユーザーアクションやコンテンツ露出がリビジットを引き起こすかは、しばしば不明である。
我々は、リビテーション行動のモデリングのための、新しく、軽量で、解釈可能なフレームワークを導入する。
- 参考スコア(独自算出の注目度): 1.4937608608681092
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: User retention is a critical objective for online platforms like Pinterest, as it strengthens user loyalty and drives growth through repeated engagement. A key indicator of retention is revisitation, i.e., when users return to view previously saved content, a behavior often sparked by personalized recommendations and user satisfaction. However, modeling and optimizing revisitation poses significant challenges. One core difficulty is accurate attribution: it is often unclear which specific user actions or content exposures trigger a revisit, since many confounding factors (e.g., content quality, user interface, notifications, or even changing user intent) can influence return behavior. Additionally, the scale and timing of revisitations introduce further complexity; users may revisit content days or even weeks after their initial interaction, requiring the system to maintain and associate extensive historical records across millions of users and sessions. These complexities render existing methods insufficient for robustly capturing and optimizing long-term revisitation. To address these gaps, we introduce a novel, lightweight, and interpretable framework for modeling revisitation behavior and optimizing long-term user retention in Pinterest's search-based recommendation context. By defining a surrogate attribution process that links saves to subsequent revisitations, we reduce noise in the causal relationship between user actions and return visits. Our scalable event aggregation pipeline enables large-scale analysis of user revisitation patterns and enhances the ranking system's ability to surface items with high retention value. Deployed on Pinterest's Related Pins surface to serve 500+ million users, the framework led to a significant lift of 0.1% in active users without additional computational costs.
- Abstract(参考訳): ユーザー維持はPinterestのようなオンラインプラットフォームにとって重要な目標であり、ユーザーの忠誠心を高め、繰り返しエンゲージメントを通じて成長を促進する。
保持の鍵となる指標は、ユーザーが以前保存されたコンテンツを見るために戻るとき、しばしばパーソナライズされたレコメンデーションとユーザー満足度によって引き起こされる行動である。
しかし、モデリングと修正の最適化は重大な課題となる。
コンテンツ品質、ユーザインターフェース、通知、さらにはユーザ意図の変更など、多くの相反する要因がリターン動作に影響を与える可能性があるため、特定のユーザアクションやコンテンツ露出がリバイジットをトリガーするかどうかはしばしば不明である。
さらに、改訂の規模とタイミングがさらに複雑になり、ユーザーは最初の対話の数日後、あるいは数週間後にコンテンツを再考し、何百万ものユーザーやセッションにわたる広範な歴史的記録を維持し、関連付ける必要がある。
これらの複雑さは、長期的な修正を堅牢に捕捉し、最適化するのに、既存の手法を不十分にしている。
これらのギャップに対処するために、Pinterestの検索ベースのレコメンデーションコンテキストにおいて、修正動作をモデリングし、長期的なユーザ保持を最適化するための、新しくて軽量で解釈可能なフレームワークを導入します。
保存とその後の再考をリンクする代理属性プロセスを定義することにより,ユーザ行動と訪問の因果関係におけるノイズを低減する。
当社のスケーラブルなイベントアグリゲーションパイプラインは,ユーザリビジョンパターンの大規模解析を可能にし,保持値の高いアイテムをサーフェスする能力を向上させる。
PinterestのRelated Pinsサーフェス上にデプロイされたこのフレームワークは,500万人以上のユーザを対象としたものだ。
関連論文リスト
- O-Mem: Omni Memory System for Personalized, Long Horizon, Self-Evolving Agents [60.1848551962911]
O-Memはアクティブユーザプロファイリングに基づく新しいメモリフレームワークである。
O-Memはペルソナ属性とトピック関連コンテキストの階層的検索をサポートする。
論文 参考訳(メタデータ) (2025-11-17T16:55:19Z) - Retentive Relevance: Capturing Long-Term User Value in Recommendation Systems [29.596401271139797]
本稿では,新しいコンテンツレベル調査に基づくフィードバック尺度であるRetentive Relevanceを紹介する。
Retentive Relevanceは、ユーザーが同様のコンテンツのためにプラットフォームに戻る意図を直接評価する。
これらの結果から,Retentive Relevanceは,エンゲージメント信号および他の調査指標よりも,翌日のリテンションの予測に優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-10-08T23:38:57Z) - Multi-agents based User Values Mining for Recommendation [52.26100802380767]
効率的なユーザ値抽出のためのゼロショットマルチLLM協調フレームワークを提案する。
本研究は,本質的な意味を保ちながら,項目内容のコンデンスにテキスト要約手法を適用した。
幻覚を緩和するために,評価役と監督役の2つの特殊エージェントの役割を導入する。
論文 参考訳(メタデータ) (2025-05-02T04:01:31Z) - Modeling User Retention through Generative Flow Networks [34.74982897470852]
フローベースのモデリング技術は、ユーザセッションで推奨される各項目に対する保持報酬をバックプロパガントすることができる。
従来の学習目標と組み合わされたフローは、最終的には、即時フィードバックとユーザ保持の両方に対して、非カウントの累積報酬を最適化した。
論文 参考訳(メタデータ) (2024-06-10T06:22:18Z) - Persona-DB: Efficient Large Language Model Personalization for Response Prediction with Collaborative Data Refinement [79.2400720115588]
本稿では,タスクコンテキスト間の一般化を改善するための階層的な構築プロセスからなる,シンプルで効果的なフレームワークであるPersona-DBを紹介する。
応答予測の評価において,Persona-DB は精度を著しく低減した検索サイズで維持する上で,より優れたコンテキスト効率を示す。
我々の実験は、ユーザーが極めて少ないデータを持つ場合、コールドスタートシナリオで10%以上の顕著な改善が示されていることも示している。
論文 参考訳(メタデータ) (2024-02-16T20:20:43Z) - Reinforcing User Retention in a Billion Scale Short Video Recommender
System [21.681785801465328]
短いビデオプラットフォームは、興味深いコンテンツをユーザーに推薦することで、急速にユーザー成長を遂げた。
この勧告の目的は、ユーザ保持の最適化であり、DAU(Daily Active Users)の成長を促進することである。
論文 参考訳(メタデータ) (2023-02-03T13:25:43Z) - Denoising User-aware Memory Network for Recommendation [11.145186013006375]
我々はDUMN(Denoising User-Aware memory network)という新しいCTRモデルを提案する。
DUMNは明示的なフィードバックの表現を使用して、暗黙的なフィードバックの表現を浄化し、暗黙的なフィードバックを効果的に軽視する。
2つの実際のEコマースユーザ行動データセットの実験は、DUMNが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2021-07-12T14:39:36Z) - Dynamic Memory based Attention Network for Sequential Recommendation [79.5901228623551]
DMAN(Dynamic Memory-based Attention Network)と呼ばれる新しい連続的推薦モデルを提案する。
長い動作シーケンス全体を一連のサブシーケンスに分割し、モデルをトレーニングし、ユーザの長期的な利益を維持するためにメモリブロックのセットを維持する。
動的メモリに基づいて、ユーザの短期的および長期的関心を明示的に抽出し、組み合わせて効率的な共同推薦を行うことができる。
論文 参考訳(メタデータ) (2021-02-18T11:08:54Z) - Sequential Recommender via Time-aware Attentive Memory Network [67.26862011527986]
本稿では,注意機構と繰り返し単位を改善するための時間ゲーティング手法を提案する。
また,長期と短期の嗜好を統合するマルチホップ・タイムアウェア・アテンテーティブ・メモリ・ネットワークを提案する。
提案手法は,候補探索タスクに対してスケーラブルであり,ドット積に基づくTop-Kレコメンデーションのための潜在因数分解の非線形一般化とみなすことができる。
論文 参考訳(メタデータ) (2020-05-18T11:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。