論文の概要: Reinforcing User Retention in a Billion Scale Short Video Recommender
System
- arxiv url: http://arxiv.org/abs/2302.01724v1
- Date: Fri, 3 Feb 2023 13:25:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 16:19:31.988049
- Title: Reinforcing User Retention in a Billion Scale Short Video Recommender
System
- Title(参考訳): 10億規模のショートビデオレコメンデーションシステムにおけるユーザ保持の強化
- Authors: Qingpeng Cai, Shuchang Liu, Xueliang Wang, Tianyou Zuo, Wentao Xie,
Bin Yang, Dong Zheng, Peng Jiang, Kun Gai
- Abstract要約: 短いビデオプラットフォームは、興味深いコンテンツをユーザーに推薦することで、急速にユーザー成長を遂げた。
この勧告の目的は、ユーザ保持の最適化であり、DAU(Daily Active Users)の成長を促進することである。
- 参考スコア(独自算出の注目度): 21.681785801465328
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Recently, short video platforms have achieved rapid user growth by
recommending interesting content to users. The objective of the recommendation
is to optimize user retention, thereby driving the growth of DAU (Daily Active
Users). Retention is a long-term feedback after multiple interactions of users
and the system, and it is hard to decompose retention reward to each item or a
list of items. Thus traditional point-wise and list-wise models are not able to
optimize retention. In this paper, we choose reinforcement learning methods to
optimize the retention as they are designed to maximize the long-term
performance. We formulate the problem as an infinite-horizon request-based
Markov Decision Process, and our objective is to minimize the accumulated time
interval of multiple sessions, which is equal to improving the app open
frequency and user retention. However, current reinforcement learning
algorithms can not be directly applied in this setting due to uncertainty,
bias, and long delay time incurred by the properties of user retention. We
propose a novel method, dubbed RLUR, to address the aforementioned challenges.
Both offline and live experiments show that RLUR can significantly improve user
retention. RLUR has been fully launched in Kuaishou app for a long time, and
achieves consistent performance improvement on user retention and DAU.
- Abstract(参考訳): 近年,ショートビデオプラットフォームは,興味深いコンテンツをユーザに推薦することで,急速なユーザ増加を達成している。
この勧告の目的は、ユーザ保持の最適化であり、DAU(Daily Active Users)の成長を促進することである。
保持は、ユーザとシステムの複数インタラクション後の長期的なフィードバックであり、各アイテムまたはアイテムのリストに対する保持報酬を分解することは困難である。
したがって、従来のポイントワイズモデルとリストワイズモデルは保持を最適化できない。
本稿では,長期的性能を最大化するために,保持率を最適化する強化学習手法を選択する。
我々は,この問題を無限ホリゾン要求に基づくマルコフ決定プロセスとして定式化し,複数のセッションの蓄積時間間隔を最小化することを目的としている。
しかし、現在の強化学習アルゴリズムは、ユーザの保持特性によって生じる不確実性、バイアス、長い遅延時間のために、この設定では直接適用できない。
本稿では、上記の課題に対処するため、RLURと呼ばれる新しい手法を提案する。
オフラインとライブの両方の実験は、RLURがユーザの保持を大幅に改善できることを示している。
RLURは長い間、Kuaishouアプリで完全にローンチされており、ユーザ保持とDAUで一貫したパフォーマンス向上を実現している。
関連論文リスト
- Unveiling User Satisfaction and Creator Productivity Trade-Offs in Recommendation Platforms [68.51708490104687]
調査力の低い純粋に関連性の高い政策は、短期的ユーザの満足度を高めるが、コンテンツプールの長期的豊かさを損なうことを示す。
調査の結果,プラットフォーム上でのユーザの即時満足度と全体のコンテンツ生産との間には,根本的なトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2024-10-31T07:19:22Z) - Prompt Tuning as User Inherent Profile Inference Machine [53.78398656789463]
本稿では,ユーザプロファイルの推測にプロンプトチューニングを用いるUserIP-Tuningを提案する。
プロファイル量子化コードブックは、プロファイル埋め込みによるモダリティギャップを協調IDにブリッジする。
4つの公開データセットの実験では、UserIP-Tuningは最先端のレコメンデーションアルゴリズムを上回っている。
論文 参考訳(メタデータ) (2024-08-13T02:25:46Z) - Modeling User Retention through Generative Flow Networks [34.74982897470852]
フローベースのモデリング技術は、ユーザセッションで推奨される各項目に対する保持報酬をバックプロパガントすることができる。
従来の学習目標と組み合わされたフローは、最終的には、即時フィードバックとユーザ保持の両方に対して、非カウントの累積報酬を最適化した。
論文 参考訳(メタデータ) (2024-06-10T06:22:18Z) - PrefRec: Recommender Systems with Human Preferences for Reinforcing
Long-term User Engagement [36.95056214316392]
我々は、人間の嗜好(または嗜好に基づくレコメンダシステム)を備えた新しいパラダイム、レコメンダシステムを提案する。
PrefRecでは、複雑な報酬工学を回避しつつ、長期的な目標を最適化する上でRLの利点を完全に活用できます。
論文 参考訳(メタデータ) (2022-12-06T06:21:17Z) - Improving information retention in large scale online continual learning [99.73847522194549]
オンライン連続学習は、既存の知識を維持しながら、新しいデータに効率的に適応することを目的としている。
最近の研究は、リプレイバッファが無制限であっても、大規模なOCLでは情報保持が問題であり続けていることを示唆している。
非定常目標に対する最適化を改善するため,移動平均の手法群を提案する。
論文 参考訳(メタデータ) (2022-10-12T16:59:43Z) - Sequential Search with Off-Policy Reinforcement Learning [48.88165680363482]
本稿では,RNN学習フレームワークとアテンションモデルからなる,スケーラブルなハイブリッド学習モデルを提案する。
新たな最適化のステップとして、1つのRNNパスに複数の短いユーザシーケンスをトレーニングバッチ内に収める。
また、マルチセッションパーソナライズされた検索ランキングにおける非政治強化学習の利用についても検討する。
論文 参考訳(メタデータ) (2022-02-01T06:52:40Z) - Denoising User-aware Memory Network for Recommendation [11.145186013006375]
我々はDUMN(Denoising User-Aware memory network)という新しいCTRモデルを提案する。
DUMNは明示的なフィードバックの表現を使用して、暗黙的なフィードバックの表現を浄化し、暗黙的なフィードバックを効果的に軽視する。
2つの実際のEコマースユーザ行動データセットの実験は、DUMNが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2021-07-12T14:39:36Z) - Improving Long-Term Metrics in Recommendation Systems using
Short-Horizon Offline RL [56.20835219296896]
セッションベースのレコメンデーションシナリオについて検討し、シーケンシャルなインタラクションの間、ユーザに対してアイテムを推薦し、長期的なユーティリティを改善する。
我々は、セッション間のポリシーによる分散シフトを近似するショートホライズンポリシー改善(SHPI)と呼ばれる新しいバッチRLアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-01T15:58:05Z) - Sequential Recommender via Time-aware Attentive Memory Network [67.26862011527986]
本稿では,注意機構と繰り返し単位を改善するための時間ゲーティング手法を提案する。
また,長期と短期の嗜好を統合するマルチホップ・タイムアウェア・アテンテーティブ・メモリ・ネットワークを提案する。
提案手法は,候補探索タスクに対してスケーラブルであり,ドット積に基づくTop-Kレコメンデーションのための潜在因数分解の非線形一般化とみなすことができる。
論文 参考訳(メタデータ) (2020-05-18T11:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。