論文の概要: Cross-Scenario Unified Modeling of User Interests at Billion Scale
- arxiv url: http://arxiv.org/abs/2510.14788v1
- Date: Thu, 16 Oct 2025 15:20:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.92022
- Title: Cross-Scenario Unified Modeling of User Interests at Billion Scale
- Title(参考訳): 数十億ドル規模のユーザ関心の総合モデリング
- Authors: Manjie Xu, Cheng Chen, Xin Jia, Jingyi Zhou, Yongji Wu, Zejian Wang, Chi Zhang, Kai Zuo, Yibo Chen, Xu Tang, Yao Hu, Yixin Zhu,
- Abstract要約: 本稿では,産業レベルのコンテンツレコメンデーションシステムに適した,多種多様なシナリオのための高度なレコメンダエンジンであるRED-Recを提案する。
Red-Recは、複数の振る舞いコンテキストにまたがるユーザ関心の表現を統一し、包括的なアイテムとユーザモデリングをもたらす。
RED-RecのオンラインA/Bテストは、RedNoteの数億人のユーザを対象に、オンラインA/Bテストを通じて検証し、コンテンツレコメンデーションと広告ターゲティングタスクの両方において、大幅なパフォーマンス向上を示した。
- 参考スコア(独自算出の注目度): 31.293456834853853
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: User interests on content platforms are inherently diverse, manifesting through complex behavioral patterns across heterogeneous scenarios such as search, feed browsing, and content discovery. Traditional recommendation systems typically prioritize business metric optimization within isolated specific scenarios, neglecting cross-scenario behavioral signals and struggling to integrate advanced techniques like LLMs at billion-scale deployments, which finally limits their ability to capture holistic user interests across platform touchpoints. We propose RED-Rec, an LLM-enhanced hierarchical Recommender Engine for Diversified scenarios, tailored for industry-level content recommendation systems. RED-Rec unifies user interest representations across multiple behavioral contexts by aggregating and synthesizing actions from varied scenarios, resulting in comprehensive item and user modeling. At its core, a two-tower LLM-powered framework enables nuanced, multifaceted representations with deployment efficiency, and a scenario-aware dense mixing and querying policy effectively fuses diverse behavioral signals to capture cross-scenario user intent patterns and express fine-grained, context-specific intents during serving. We validate RED-Rec through online A/B testing on hundreds of millions of users in RedNote through online A/B testing, showing substantial performance gains in both content recommendation and advertisement targeting tasks. We further introduce a million-scale sequential recommendation dataset, RED-MMU, for comprehensive offline training and evaluation. Our work advances unified user modeling, unlocking deeper personalization and fostering more meaningful user engagement in large-scale UGC platforms.
- Abstract(参考訳): コンテンツプラットフォームに対するユーザの関心は本質的に多様であり、検索、フィードブラウジング、コンテンツ発見といった異種シナリオにわたる複雑な行動パターンを通じて現れます。
従来のレコメンデーションシステムは、分離された特定のシナリオ内でのビジネスメトリックの最適化を優先し、クロスシナリオの振る舞い信号を無視し、数十億規模のデプロイメントでLLMのような高度な技術を統合するのに苦労する。
本稿では,業界レベルのコンテンツレコメンデーションシステムに適したLEM拡張階層型シナリオ向けレコメンデーションエンジンRED-Recを提案する。
RED-Recは、さまざまなシナリオからアクションを集約し、合成することで、複数の行動コンテキストにまたがるユーザ関心の表現を統一する。
その中核となる2tower LLMベースのフレームワークは、デプロイ効率を伴うニュアンスで多面的な表現を可能にし、シナリオ対応の密混合とクエリポリシーは、多様な行動信号を効果的に融合して、クロスセサリオのユーザ意図パターンを捕捉し、サービス中にきめ細かな、コンテキスト固有の意図を表現する。
RED-RecのオンラインA/Bテストは、RedNoteの数億人のユーザを対象に、オンラインA/Bテストを通じて検証し、コンテンツレコメンデーションと広告ターゲティングタスクの両方において、大幅なパフォーマンス向上を示した。
さらに、総合的なオフライントレーニングと評価のために、100万単位のシーケンシャルレコメンデーションデータセットRED-MMUを導入する。
当社の作業は、統一されたユーザモデリングを推進し、より深いパーソナライゼーションを開放し、大規模UGCプラットフォームにおけるより有意義なユーザエンゲージメントを促進します。
関連論文リスト
- LLM-Driven Dual-Level Multi-Interest Modeling for Recommendation [12.89199121698673]
大規模言語モデル (LLM) は、その豊富な知識と強力な推論能力により、多言語分析において大きな可能性を示す。
より効果的なレコメンデーションのためのLLM駆動型デュアルレベル多目的モデリングフレームワークを提案する。
実世界のデータセットの実験は、最先端の手法に対する我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2025-07-15T02:13:54Z) - Synergizing Implicit and Explicit User Interests: A Multi-Embedding Retrieval Framework at Pinterest [9.904093205817247]
検索ステージは、候補項目のハイリコールセットを生成する上で重要な役割を果たす。
従来の2-towerモデルは、ユーザとイテムの機能相互作用が限られているため、この点において苦労する。
ユーザの興味を表現できる新しいマルチ埋め込み検索フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-29T02:14:21Z) - PERSCEN: Learning Personalized Interaction Pattern and Scenario Preference for Multi-Scenario Matching [38.829190984763294]
効果的なマルチシナリオレコメンデーションの鍵は、すべてのシナリオで共有されるユーザの好みと、シナリオ固有のシナリオ対応の好みの両方をキャプチャすることだ。
ユーザ固有のモデリングをマルチシナリオマッチングに組み込む革新的なアプローチであるPERSCENを提案する。
PERSCENは、ユーザ特性に基づいて、ユーザ固有の特徴グラフを構築し、高次のインタラクションパターンをキャプチャするために、軽量なグラフニューラルネットワークを使用している。
論文 参考訳(メタデータ) (2025-06-23T08:15:16Z) - Multi-agents based User Values Mining for Recommendation [52.26100802380767]
効率的なユーザ値抽出のためのゼロショットマルチLLM協調フレームワークを提案する。
本研究は,本質的な意味を保ちながら,項目内容のコンデンスにテキスト要約手法を適用した。
幻覚を緩和するために,評価役と監督役の2つの特殊エージェントの役割を導入する。
論文 参考訳(メタデータ) (2025-05-02T04:01:31Z) - Large Language Model Empowered Recommendation Meets All-domain Continual Pre-Training [60.38082979765664]
CPRecは、レコメンデーションのための全ドメイン連続事前トレーニングフレームワークである。
LLMを連続的な事前学習パラダイムを通じて、普遍的なユーザ行動と整合させる。
2つの異なるプラットフォームから5つの実世界のデータセットを実験する。
論文 参考訳(メタデータ) (2025-04-11T20:01:25Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - CART: A Generative Cross-Modal Retrieval Framework with Coarse-To-Fine Semantic Modeling [53.97609687516371]
クロスモーダル検索は、異なるモーダルデータの相互作用を通じて、クエリと意味的に関連するインスタンスを検索することを目的としている。
従来のソリューションでは、クエリと候補の間のスコアを明示的に計算するために、シングルトウワーまたはデュアルトウワーのフレームワークを使用している。
粗大なセマンティックモデリングに基づく生成的クロスモーダル検索フレームワーク(CART)を提案する。
論文 参考訳(メタデータ) (2024-06-25T12:47:04Z) - A Unified Search and Recommendation Framework Based on Multi-Scenario Learning for Ranking in E-commerce [13.991015845541257]
統一検索・レコメンデーション(USR)のための効果的で普遍的なフレームワークを提案する。
USRは様々なマルチシナリオモデルに適用でき、性能を大幅に改善することができる。
USRは7Fresh Appでうまくデプロイされている。
論文 参考訳(メタデータ) (2024-05-17T14:57:52Z) - PinnerSage: Multi-Modal User Embedding Framework for Recommendations at
Pinterest [54.56236567783225]
PinnerSageはエンド・ツー・エンドのレコメンデーションシステムで、マルチモーダル・埋め込みを通じて各ユーザーを表現する。
オフラインおよびオンラインA/B実験を複数実施し,本手法が単一埋め込み法より有意に優れていることを示す。
論文 参考訳(メタデータ) (2020-07-07T17:13:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。