論文の概要: Efficient Sequential Recommendation for Long Term User Interest Via Personalization
- arxiv url: http://arxiv.org/abs/2601.03479v1
- Date: Wed, 07 Jan 2026 00:15:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.097567
- Title: Efficient Sequential Recommendation for Long Term User Interest Via Personalization
- Title(参考訳): パーソナライズによる長期ユーザ関心度向上のための効率的なシーケンスレコメンデーション
- Authors: Qiang Zhang, Hanchao Yu, Ivan Ji, Chen Yuan, Yi Zhang, Chihuang Liu, Xiaolong Wang, Christopher E. Lambert, Ren Chen, Chen Kovacs, Xinzhu Bei, Renqin Cai, Rui Li, Lizhu Zhang, Xiangjun Fan, Qunshu Zhang, Benyu Zhang,
- Abstract要約: 我々は、パーソナライズ技術を活用して効率と性能を向上させる新しい手法をシーケンシャルレコメンデーションに導入する。
提案手法は,高いレコメンデーション精度を維持しつつ,計算コストを大幅に削減する。
提案手法は,既存のトランスフォーマーベースレコメンデーションモデル,例えばHSTUやHLLMに適用できる。
- 参考スコア(独自算出の注目度): 18.326002279321575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have witnessed success of sequential modeling, generative recommender, and large language model for recommendation. Though the scaling law has been validated for sequential models, it showed inefficiency in computational capacity when considering real-world applications like recommendation, due to the non-linear(quadratic) increasing nature of the transformer model. To improve the efficiency of the sequential model, we introduced a novel approach to sequential recommendation that leverages personalization techniques to enhance efficiency and performance. Our method compresses long user interaction histories into learnable tokens, which are then combined with recent interactions to generate recommendations. This approach significantly reduces computational costs while maintaining high recommendation accuracy. Our method could be applied to existing transformer based recommendation models, e.g., HSTU and HLLM. Extensive experiments on multiple sequential models demonstrate its versatility and effectiveness. Source code is available at \href{https://github.com/facebookresearch/PerSRec}{https://github.com/facebookresearch/PerSRec}.
- Abstract(参考訳): 近年、シーケンシャル・モデリング、ジェネレーティブ・レコメンデーション、そして大規模言語モデルの成功が見られた。
スケーリング法則はシーケンシャルモデルに対して検証されているが、トランスフォーマーモデルの非線形(四進的)増加の性質のため、レコメンデーションのような現実世界の応用を考えると、計算能力の非効率性を示した。
シーケンシャルモデルの効率を向上させるために、パーソナライズ技術を活用して効率と性能を向上させるシーケンシャルレコメンデーションに新しいアプローチを導入した。
提案手法は,長いユーザインタラクション履歴を学習可能なトークンに圧縮し,最近のインタラクションと組み合わせてレコメンデーションを生成する。
このアプローチは高いレコメンデーション精度を維持しながら計算コストを大幅に削減する。
提案手法は,既存のトランスフォーマーベースレコメンデーションモデル,例えばHSTU,HLLMに適用できる。
複数のシーケンシャルモデルに対する大規模な実験は、その汎用性と有効性を示している。
ソースコードは \href{https://github.com/facebookresearch/PerSRec}{https://github.com/facebookresearch/PerSRec} で公開されている。
関連論文リスト
- HyMiRec: A Hybrid Multi-interest Learning Framework for LLM-based Sequential Recommendation [24.720767926024433]
HyMiRecは、大規模言語モデルのためのハイブリッドシーケンシャルレコメンデーションフレームワークである。
長いユーザシーケンスから粗い関心埋め込みを抽出し、洗練された関心埋め込みをキャプチャするためのLLMベースのレコメンデータを抽出する。
ユーザの多様な嗜好をモデル化するために,不整合型多目的学習モジュールを設計する。
論文 参考訳(メタデータ) (2025-10-15T16:45:59Z) - Slow Thinking for Sequential Recommendation [88.46598279655575]
本稿では,STREAM-Recという新しいスローシンキングレコメンデーションモデルを提案する。
弊社のアプローチは、過去のユーザの振る舞いを分析し、多段階の熟考的推論プロセスを生成し、パーソナライズされたレコメンデーションを提供する。
具体的には,(1)レコメンデーションシステムにおける適切な推論パターンを特定すること,(2)従来のレコメンデーションシステムの推論能力を効果的に刺激する方法を検討すること,の2つの課題に焦点を当てる。
論文 参考訳(メタデータ) (2025-04-13T15:53:30Z) - A Novel Mamba-based Sequential Recommendation Method [4.941272356564765]
逐次レコメンデーション(SR)は、次のアクションを予測するためにユーザアクティビティをエンコードする。
トランスフォーマーベースのモデルはシーケンシャルレコメンデーションに有効であることが証明されているが、トランスフォーマーにおける自己アテンションモジュールの複雑さは、シーケンス長と2次にスケールする。
複数の低次元マンバ層と完全連結層を用いる新しいマルチヘッド潜在マンバアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-04-10T02:43:19Z) - Scaling Sequential Recommendation Models with Transformers [0.0]
我々は、大規模言語モデルのトレーニングで観察されるスケーリング法則からインスピレーションを得て、シーケンシャルなレコメンデーションのために同様の原則を探求する。
計算最適トレーニングは可能だが、アプリケーション固有の計算性能トレードオフを慎重に分析する必要がある。
また、より小さなタスク固有のドメイン上で、より大規模なトレーニング済みモデルを微調整することで、パフォーマンスのスケーリングがダウンストリームタスクに変換されることを示す。
論文 参考訳(メタデータ) (2024-12-10T15:20:56Z) - Scaling New Frontiers: Insights into Large Recommendation Models [74.77410470984168]
MetaのジェネレーティブレコメンデーションモデルHSTUは、パラメータを数千億に拡張することでレコメンデーションシステムのスケーリング法則を説明している。
我々は、これらのスケーリング法則の起源を探るため、包括的なアブレーション研究を行っている。
大規模なレコメンデーションモデルの今後の方向性に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-12-01T07:27:20Z) - Bridging User Dynamics: Transforming Sequential Recommendations with Schrödinger Bridge and Diffusion Models [49.458914600467324]
拡散に基づく逐次レコメンデーションモデルにSchr"odinger Bridgeを導入し、SdifRecモデルを作成する。
また、ユーザクラスタリング情報を誘導条件として利用するcon-SdifRecと呼ばれるSdifRecの拡張版も提案する。
論文 参考訳(メタデータ) (2024-08-30T09:10:38Z) - E^2VPT: An Effective and Efficient Approach for Visual Prompt Tuning [55.50908600818483]
新しいタスクのための微調整された大規模な事前学習型ビジョンモデルは、パラメーター集約化が進んでいる。
本稿では,大規模なトランスフォーマーモデル適応のための効果的かつ効率的なビジュアルプロンプトチューニング(E2VPT)手法を提案する。
提案手法は2つのベンチマークにおいて,最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2023-07-25T19:03:21Z) - Towards Universal Sequence Representation Learning for Recommender
Systems [98.02154164251846]
我々はUniSRecという新しいユニバーサルシーケンス表現学習手法を提案する。
提案手法は、項目の関連記述テキストを用いて、異なる推薦シナリオ間で転送可能な表現を学習する。
我々のアプローチは、パラメータ効率のよい方法で、新しいレコメンデーションドメインやプラットフォームに効果的に移行できます。
論文 参考訳(メタデータ) (2022-06-13T07:21:56Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。