論文の概要: GEMs: Breaking the Long-Sequence Barrier in Generative Recommendation with a Multi-Stream Decoder
- arxiv url: http://arxiv.org/abs/2602.13631v1
- Date: Sat, 14 Feb 2026 06:42:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.241025
- Title: GEMs: Breaking the Long-Sequence Barrier in Generative Recommendation with a Multi-Stream Decoder
- Title(参考訳): GEM:マルチストリームデコーダによるジェネレーティブレコメンデーションにおける長周期バリアの破壊
- Authors: Yu Zhou, Chengcheng Guo, Kuo Cai, Ji Liu, Qiang Luo, Ruiming Tang, Han Li, Kun Gai, Guorui Zhou,
- Abstract要約: 本稿では,長期的履歴からユーザのシーケンスをキャプチャする新しい統一フレームワークを提案する。
GEM(Generative Multi-streamer)は、ユーザのシーケンスを3つのストリームに分割する。
大規模産業データセットに対する大規模な実験により、GEMは推奨精度において最先端の手法を大幅に上回っていることが示された。
- 参考スコア(独自算出の注目度): 54.64137490632567
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While generative recommendations (GR) possess strong sequential reasoning capabilities, they face significant challenges when processing extremely long user behavior sequences: the high computational cost forces practical sequence lengths to be limited, preventing models from capturing users' lifelong interests; meanwhile, the inherent "recency bias" of attention mechanisms further weakens learning from long-term history. To overcome this bottleneck, we propose GEMs (Generative rEcommendation with a Multi-stream decoder), a novel and unified framework designed to break the long-sequence barrier by capturing users' lifelong interaction sequences through a multi-stream perspective. Specifically, GEMs partitions user behaviors into three temporal streams$\unicode{x2014}$Recent, Mid-term, and Lifecycle$\unicode{x2014}$and employs tailored inference schemes for each: a one-stage real-time extractor for immediate dynamics, a lightweight indexer for cross attention to balance accuracy and cost for mid-term sequences, and a two-stage offline-online compression module for lifelong modeling. These streams are integrated via a parameter-free fusion strategy to enable holistic interest representation. Extensive experiments on large-scale industrial datasets demonstrate that GEMs significantly outperforms state-of-the-art methods in recommendation accuracy. Notably, GEMs is the first lifelong GR framework successfully deployed in a high-concurrency industrial environment, achieving superior inference efficiency while processing user sequences of over 100,000 interactions.
- Abstract(参考訳): 生成的レコメンデーション(GR)は、強いシーケンシャルな推論能力を持っているが、非常に長いユーザの行動シーケンスを処理する際には、大きな課題に直面している。
このボトルネックを克服するために,マルチストリーム・デコーダを用いたGAM(Generative rEcommendation with a Multi-stream decoder)を提案する。
具体的には、GEMは、ユーザの振る舞いを3つの時間ストリームに分割する。$\unicode{x2014}$Recent, Mid-term, and Lifecycle$\unicode{x2014}$andは、それぞれにカスタマイズされた推論スキームを使用する。
これらのストリームは、パラメータフリーの融合戦略を通じて統合され、全体論的な関心表現を可能にする。
大規模産業データセットに対する大規模な実験により、GEMは推奨精度において最先端の手法を大幅に上回っていることが示された。
特に、GEMsは、100,000以上のインタラクションのユーザシーケンスを処理しながら、より優れた推論効率を実現し、高コンカレンシーな産業環境での展開に成功している初めての寿命のGRフレームワークである。
関連論文リスト
- Climber-Pilot: A Non-Myopic Generative Recommendation Model Towards Better Instruction-Following [19.550149895505683]
Climber-Pilotは統合された生成検索フレームワークである。
TAMIP(Time-Aware Multi-Item Prediction)は、遺伝的検索において固有の近視を緩和する新しいトレーニングパラダイムである。
また,ビジネス制約をスパース・アテンションを介して生成プロセスに直接組み込むコンディションガイド付きスパース・アテンション(CGSA)を提案する。
論文 参考訳(メタデータ) (2026-02-14T03:46:06Z) - OneLive: Dynamically Unified Generative Framework for Live-Streaming Recommendation [49.95897358060393]
ライブストリーミングに適した動的に統一された生成レコメンデーションフレームワークであるOneLiveを提案する。
OneLiveは4つの重要なコンポーネントを統合している: (i) (i) (i) (i) (i) (ii) (II) 時間的決定のための時間的ダイナミクスを明示的にモデル化するタイムアウェア・ゲーテッド・アテンション機構; (iii) シーケンシャル MTP と QK Norm で強化された効率的なデコーダのみ生成アーキテクチャ。
論文 参考訳(メタデータ) (2026-02-09T12:56:39Z) - GLASS: A Generative Recommender for Long-sequence Modeling via SID-Tier and Semantic Search [51.44490997013772]
GLASSは、SID-TierとSemantic Searchを通じて、長期的なユーザ関心を生成プロセスに統合する新しいフレームワークである。
GLASSは2つの大規模実世界のデータセットの実験において最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2026-02-05T13:48:33Z) - Length-Adaptive Interest Network for Balancing Long and Short Sequence Modeling in CTR Prediction [50.094751096858204]
LAINは、長いシーケンスと短いシーケンスのモデリングのバランスをとるために、シーケンス長を条件信号として組み込んだプラグアンドプレイフレームワークである。
私たちの仕事は、シーケンシャルなレコメンデーションにおいて、長さによるバイアスを軽減する、汎用的で効率的でデプロイ可能なソリューションを提供します。
論文 参考訳(メタデータ) (2026-01-27T03:14:20Z) - Unleashing the Potential of Sparse Attention on Long-term Behaviors for CTR Prediction [17.78352301235849]
本研究では,ユーザの長期行動に特化して設計された効率的かつ効果的なモデルであるSparseCTRを提案する。
これらのチャンクに基づいて,ユーザのグローバルな関心を共同で識別する3枝のスパース自己認識機構を提案する。
SparseCTRは効率を向上するだけでなく、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2026-01-25T13:39:26Z) - Beyond Fixed: Training-Free Variable-Length Denoising for Diffusion Large Language Models [74.15250326312179]
拡散大言語モデルは効率的な並列生成とグローバルモデリングを提供する。
DLLMの主流の応用は、静的に事前定義された生成長の必要性によって妨げられている。
DAEDALは,動的適応長拡張を可能にする新しい学習自由化戦略である。
論文 参考訳(メタデータ) (2025-08-01T17:56:07Z) - LONGER: Scaling Up Long Sequence Modeling in Industrial Recommenders [23.70714095931094]
GPU効率の良いリコメンダのための長時間最適化されたtraNsformer。
オフラインのメトリクスとオンラインのA/Bテストでは、一貫して強力なベースラインを上回ります。
論文 参考訳(メタデータ) (2025-05-07T13:54:26Z) - UmambaTSF: A U-shaped Multi-Scale Long-Term Time Series Forecasting Method Using Mamba [7.594115034632109]
本稿では,新しい時系列予測フレームワークであるUmambaTSFを提案する。
U字型エンコーダ・デコーダ多層パーセプトロン(MLP)のマルチスケール特徴抽出機能とMambaのロングシーケンス表現を統合する。
UmambaTSFは、広く使用されているベンチマークデータセットで最先端のパフォーマンスと優れた汎用性を達成する。
論文 参考訳(メタデータ) (2024-10-15T04:56:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。