論文の概要: STARS: Semantic Tokens with Augmented Representations for Recommendation at Scale
- arxiv url: http://arxiv.org/abs/2512.10149v2
- Date: Sat, 13 Dec 2025 04:05:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 15:10:29.215599
- Title: STARS: Semantic Tokens with Augmented Representations for Recommendation at Scale
- Title(参考訳): STARS: 大規模レコメンデーションのための拡張表現付きセマンティックトークン
- Authors: Han Chen, Steven Zhu, Yingrui Li,
- Abstract要約: 本稿では,大規模な低レイテンシ設定のためのトランスフォーマーベースのシーケンシャルレコメンデーションフレームワークであるSTARSを紹介する。
オフライン評価では、既存のLambdaシステムと比較して、STARSはHit@5を75%以上改善しています。
600万回の訪問に対する大規模なA/Bテストでは、トータルオーダー+0.8%、ホームのAdd-to-Cart +2.0%、ユーザーあたりの訪問+0.5%など、統計的に有意な上昇が見られる。
- 参考スコア(独自算出の注目度): 9.860255576130214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world ecommerce recommender systems must deliver relevant items under strict tens-of-milliseconds latency constraints despite challenges such as cold-start products, rapidly shifting user intent, and dynamic context including seasonality, holidays, and promotions. We introduce STARS, a transformer-based sequential recommendation framework built for large-scale, low-latency ecommerce settings. STARS combines several innovations: dual-memory user embeddings that separate long-term preferences from short-term session intent; semantic item tokens that fuse pretrained text embeddings, learnable deltas, and LLM-derived attribute tags, strengthening content-based matching, long-tail coverage, and cold-start performance; context-aware scoring with learned calendar and event offsets; and a latency-conscious two-stage retrieval pipeline that performs offline embedding generation and online maximum inner-product search with filtering, enabling tens-of-milliseconds response times. In offline evaluations on production-scale data, STARS improves Hit@5 by more than 75 percent relative to our existing LambdaMART system. A large-scale A/B test on 6 million visits shows statistically significant lifts, including Total Orders +0.8%, Add-to-Cart on Home +2.0%, and Visits per User +0.5%. These results demonstrate that combining semantic enrichment, multi-intent modeling, and deployment-oriented design can yield state-of-the-art recommendation quality in real-world environments without sacrificing serving efficiency.
- Abstract(参考訳): 現実のeコマースレコメンデータシステムは、コールドスタート製品、迅速なユーザー意図の変化、季節、ホリデー、プロモーションを含む動的なコンテキストといった課題にもかかわらず、数ミリ秒の厳格な遅延制約の下で関連するアイテムを配信する必要がある。
STARSは,大規模かつ低レイテンシなeコマース設定用に構築されたトランスフォーマーベースのシーケンシャルレコメンデーションフレームワークである。
STARSは、短期的なセッションインテントから長期的な好みを分離するデュアルメモリユーザ埋め込み、事前訓練されたテキスト埋め込み、学習可能なデルタ、LLM由来の属性タグを融合するセマンティックアイテムトークン、コンテンツベースのマッチング強化、ロングテールカバレッジ、コールドスタートパフォーマンス、学習されたカレンダーとイベントオフセットによるコンテキスト認識のスコアリング、オフラインの埋め込み生成とオンラインの最大内部製品検索をフィルタリングで実行するレイテンシ意識の2段階検索パイプライン、など、いくつかのイノベーションを統合している。
運用スケールデータのオフライン評価では、既存のLambdaMARTシステムと比較して、STARSはHit@5を75%以上改善しています。
600万回の訪問に対する大規模なA/Bテストでは、トータルオーダー+0.8%、ホームのAdd-to-Cart +2.0%、ユーザーあたりの訪問+0.5%など、統計的に有意な上昇が見られる。
これらの結果は、セマンティックエンリッチメント、マルチインテントモデリング、およびデプロイメント指向設計を組み合わせることで、実環境における最先端のレコメンデーション品質が、サービス効率を犠牲にすることなく得られることを示した。
関連論文リスト
- GRank: Towards Target-Aware and Streamlined Industrial Retrieval with a Generate-Rank Framework [47.25361445845229]
産業規模のレコメンデータシステムはカスケードパイプラインに依存しており、検索段階では何十億ものアイテムから設定されたハイリコール候補を厳格なレイテンシで返さなければならない。
本稿では,ユーザ中心の検索とターゲット認識学習をシームレスに統一する新しい構造化インデックスフリー検索パラダイムであるGRankを提案する。
論文 参考訳(メタデータ) (2025-10-17T04:15:09Z) - OneSearch: A Preliminary Exploration of the Unified End-to-End Generative Framework for E-commerce Search [43.94443394870866]
OneSearchは、eコマース検索のための最初の産業向けエンドツーエンド生成フレームワークである。
OneSearchは運用費を75.40%削減し、Model FLOPsの利用を3.26%から27.32%に改善した。
このシステムはKuaishouの複数の検索シナリオにまたがって展開され、数百万のユーザーにサービスを提供している。
論文 参考訳(メタデータ) (2025-09-03T11:50:04Z) - C-TLSAN: Content-Enhanced Time-Aware Long- and Short-Term Attention Network for Personalized Recommendation [5.867032311769198]
我々はTLSANアーキテクチャの拡張であるC-TLSAN(Content-Enhanced Time-Aware Long- and Short-Term Attention Network)を提案する。
C-TLSANは、ユーザの過去のインタラクションにリンクしたテキストコンテンツを、長期的および短期的な注意層に直接埋め込むことで、レコメンデーションパイプラインを充実させる。
大規模なAmazonデータセットに対する広範な実験を行い、C-TLSANを最先端のベースラインに対してベンチマークする。
論文 参考訳(メタデータ) (2025-06-16T01:16:26Z) - Multi-agents based User Values Mining for Recommendation [52.26100802380767]
効率的なユーザ値抽出のためのゼロショットマルチLLM協調フレームワークを提案する。
本研究は,本質的な意味を保ちながら,項目内容のコンデンスにテキスト要約手法を適用した。
幻覚を緩和するために,評価役と監督役の2つの特殊エージェントの役割を導入する。
論文 参考訳(メタデータ) (2025-05-02T04:01:31Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Long-Sequence Recommendation Models Need Decoupled Embeddings [49.410906935283585]
我々は、既存の長期推薦モデルにおいて無視された欠陥を識別し、特徴付ける。
埋め込みの単一のセットは、注意と表現の両方を学ぶのに苦労し、これら2つのプロセス間の干渉につながります。
本稿では,2つの異なる埋め込みテーブルを別々に学習し,注意と表現を完全に分離する,DARE(Decoupled Attention and Representation Embeddings)モデルを提案する。
論文 参考訳(メタデータ) (2024-10-03T15:45:15Z) - Unleash LLMs Potential for Recommendation by Coordinating Twin-Tower Dynamic Semantic Token Generator [60.07198935747619]
動的セマンティック・インデックス・パラダイムを採用した最初の生成型RSであるTTDS(Twin-Tower Dynamic Semantic Recommender)を提案する。
より具体的には、ツイン・トワー・セマンティック・トークン・ジェネレータをLLMベースのレコメンデータに統合する動的知識融合フレームワークを初めて提案する。
提案したTTDSレコメンデータは,平均19.41%のヒットレート,20.84%のNDCG測定値を実現している。
論文 参考訳(メタデータ) (2024-09-14T01:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。