論文の概要: LongRetriever: Towards Ultra-Long Sequence based Candidate Retrieval for Recommendation
- arxiv url: http://arxiv.org/abs/2508.15486v1
- Date: Thu, 21 Aug 2025 12:06:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.31006
- Title: LongRetriever: Towards Ultra-Long Sequence based Candidate Retrieval for Recommendation
- Title(参考訳): LongRetriever: 勧告のための超ロングシーケンスに基づく候補検索に向けて
- Authors: Ren Qin, Chai Zheng, Xiao Xijun, Zheng Yuchao, Wu Di,
- Abstract要約: LongRetrieverは、超長いシーケンスをレコメンダの検索ステージに組み込むためのフレームワークである。
LongRetrieverは大規模なeコマースプラットフォームに完全にデプロイされており、数十億人のユーザーに影響を与える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Precisely modeling user ultra-long sequences is critical for industrial recommender systems. Current approaches predominantly focus on leveraging ultra-long sequences in the ranking stage, whereas research for the candidate retrieval stage remains under-explored. This paper presents LongRetriever, a practical framework for incorporating ultra-long sequences into the retrieval stage of recommenders. Specifically, we propose in-context training and multi-context retrieval, which enable candidate-specific interaction between user sequence and candidate item, and ensure training-serving consistency under the search-based paradigm. Extensive online A/B testing conducted on a large-scale e-commerce platform demonstrates statistically significant improvements, confirming the framework's effectiveness. Currently, LongRetriever has been fully deployed in the platform, impacting billions of users.
- Abstract(参考訳): 産業レコメンデーションシステムでは,ユーザの超長大シーケンスを正確にモデル化することが重要である。
現在のアプローチでは、ランク付け段階における超長いシーケンスの活用に重点を置いているのに対し、候補検索段階の研究は未探索のままである。
本稿では,レコメンデータの検索段階に超長シーケンスを組み込むための実践的フレームワークであるLongRetrieverについて述べる。
具体的には、ユーザシークエンスと候補項目間の候補固有な相互作用を可能にするインコンテキストトレーニングとマルチコンテキスト検索を提案し、検索に基づくパラダイムの下でトレーニング待ちの一貫性を確保する。
大規模なeコマースプラットフォーム上で行われた大規模なオンラインA/Bテストは、統計的に有意な改善を示し、フレームワークの有効性を確認している。
現在、LongRetrieverはプラットフォームに完全にデプロイされており、数十億人のユーザーに影響を与える。
関連論文リスト
- Hierarchical Reinforcement Learning for Temporal Abstraction of Listwise Recommendation [51.06031200728449]
我々はmccHRLと呼ばれる新しいフレームワークを提案し、リストワイドレコメンデーションにおける時間的抽象化のレベルを異なるものにする。
階層的な枠組みの中では、ハイレベルエージェントがユーザ知覚の進化を研究し、低レベルエージェントがアイテム選択ポリシーを作成している。
その結果,本手法による性能改善は,いくつかのよく知られたベースラインと比較して有意な結果が得られた。
論文 参考訳(メタデータ) (2024-09-11T17:01:06Z) - SEMINAR: Search Enhanced Multi-modal Interest Network and Approximate Retrieval for Lifelong Sequential Recommendation [16.370075234443245]
本稿では,SEMINAR-Search Enhanced Multi-Modal Interest Network と Approximate Retrieval という,一生涯にわたるマルチモーダルシーケンスモデルを提案する。
具体的には、Pretraining Search Unitと呼ばれるネットワークが、事前トレーニング-ファインタニング方式で、マルチモーダルクエリ-イテムペアの寿命のシーケンスを学習する。
マルチモーダル埋め込みのオンライン検索速度を高速化するために,マルチモーダルなコードブックベースの製品量子化戦略を提案する。
論文 参考訳(メタデータ) (2024-07-15T13:33:30Z) - A Comprehensive Survey on Retrieval Methods in Recommender Systems [32.1847120460637]
本調査では,レコメンデータシステムの重要かつ見落とされがちな検索段階について検討する。
高精度かつ効率的なパーソナライズされた検索を実現するために,既存の作業を3つの重要な領域にまとめる。
特定の企業における検索実践のケーススタディを通じて、現在の産業応用を取り上げる。
論文 参考訳(メタデータ) (2024-07-11T07:09:59Z) - Effective Long-Context Scaling of Foundation Models [90.57254298730923]
最大32,768個のトークンの効率的なコンテキストウィンドウをサポートする長文LLMを提示する。
我々のモデルは、ほとんどの通常のタスクにおいて一貫した改善を達成し、Llama 2よりも長いコンテキストタスクを大幅に改善します。
論文 参考訳(メタデータ) (2023-09-27T21:41:49Z) - ResAct: Reinforcing Long-term Engagement in Sequential Recommendation
with Residual Actor [36.0251263322305]
ResActは、オンラインサービスよりも近いが良いポリシーを求めている。
ベンチマークデータセットと大規模産業データセットを用いて実験を行う。
提案手法は,様々な長期エンゲージメント最適化タスクにおいて,最先端のベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2022-06-01T02:45:35Z) - Sequential Search with Off-Policy Reinforcement Learning [48.88165680363482]
本稿では,RNN学習フレームワークとアテンションモデルからなる,スケーラブルなハイブリッド学習モデルを提案する。
新たな最適化のステップとして、1つのRNNパスに複数の短いユーザシーケンスをトレーニングバッチ内に収める。
また、マルチセッションパーソナライズされた検索ランキングにおける非政治強化学習の利用についても検討する。
論文 参考訳(メタデータ) (2022-02-01T06:52:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。