論文の概要: Capturing User Interests from Data Streams for Continual Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2506.07466v2
- Date: Wed, 29 Oct 2025 04:50:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:43.58944
- Title: Capturing User Interests from Data Streams for Continual Sequential Recommendation
- Title(参考訳): 連続的シーケンス勧告のためのデータストリームからのユーザ関心の獲得
- Authors: Gyuseok Lee, Hyunsik Yoo, Junyoung Hwang, SeongKu Kang, Hwanjo Yu,
- Abstract要約: CSTRec(Continuous Sequential Transformer for Recommendation)を紹介する。
CSTRecは、保存状態の良い歴史的なものを活用することで、現在の利益に効果的に対応するように設計されている。
CSTRecは知識保持と獲得の両面で最先端のモデルを上回っている。
- 参考スコア(独自算出の注目度): 20.994752789028958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transformer-based sequential recommendation (SR) models excel at modeling long-range dependencies in user behavior via self-attention. However, updating them with continuously arriving behavior sequences incurs high computational costs or leads to catastrophic forgetting. Although continual learning, a standard approach for non-stationary data streams, has recently been applied to recommendation, existing methods gradually forget long-term user preferences and remain underexplored in SR. In this paper, we introduce Continual Sequential Transformer for Recommendation (CSTRec). CSTRec is designed to effectively adapt to current interests by leveraging well-preserved historical ones, thus capturing the trajectory of user interests over time. The core of CSTRec is Continual Sequential Attention (CSA), a linear attention tailored for continual SR, which enables CSTRec to partially retain historical knowledge without direct access to prior data. CSA has two key components: (1) Cauchy-Schwarz Normalization that stabilizes learning over time under uneven user interaction frequencies; (2) Collaborative Interest Enrichment that alleviates forgetting through shared, learnable interest pools. In addition, we introduce a new technique to facilitate the adaptation of new users by transferring historical knowledge from existing users with similar interests. Extensive experiments on three real-world datasets show that CSTRec outperforms state-of-the-art models in both knowledge retention and acquisition.
- Abstract(参考訳): トランスフォーマーベースのシーケンシャルレコメンデーション(SR)モデルは、セルフアテンションによるユーザの振る舞いの長距離依存性のモデリングに優れています。
しかし、継続的に到着する動作シーケンスで更新すると、高い計算コストが発生するか、破滅的な忘れが生じる。
非定常データストリームの標準的なアプローチである継続学習は、最近は推奨に応用されているが、既存の手法は、長期のユーザの好みを徐々に忘れ、SRでは未探索のままである。
本稿では,CSTRec(Continuous Sequential Transformer for Recommendation)を紹介する。
CSTRecは、保存状態の良い歴史的なものを活用することで、現在の関心事に効果的に適応するように設計されており、時間とともにユーザーの関心事の軌跡を捉えている。
CSTRecの中核は連続的逐次注意 (Continuous Sequential Attention, CSA) であり、これは連続的SRに適した線形注意であり、CSTRecは過去のデータに直接アクセスすることなく、部分的に歴史的知識を保持することができる。
コーシー=シュワルツ正規化(Cauchy-Schwarz Normalization)は,(1)不均一なユーザインタラクション周波数下で学習を安定させる,(2)共有・学習可能な利子プールを通じて忘れを緩和する協調的利子豊か化(Collaborative Interest Enrichment)である。
また,既存の利用者から同様の興味を持つ歴史知識を移譲することで,新規利用者の適応を促進する新しい手法を提案する。
3つの実世界のデータセットに対する大規模な実験により、CSTRecは知識保持と取得の両方において最先端のモデルを上回っている。
関連論文リスト
- Test-Time Alignment for Tracking User Interest Shifts in Sequential Recommendation [47.827361176767944]
シークエンシャルレコメンデーションは、ユーザが対話する可能性のある次の項目を予測することを目的として、現代のレコメンデーションシステムにおいて不可欠である。
現実のシナリオは、しばしば動的で、ユーザの関心事の変化を被る。
最近のテストタイムトレーニングは有望なパラダイムとして現れ、事前トレーニングされたモデルがテストデータに動的に適応できるようにする。
逐次レコメンデーションに適した2つのTest-Time Alignmentモジュールを導入することで,TTTのステートスペースモデルを活用した新しいモデルであるT$2$ARecを提案する。
論文 参考訳(メタデータ) (2025-04-02T08:42:30Z) - Multi-granularity Interest Retrieval and Refinement Network for Long-Term User Behavior Modeling in CTR Prediction [68.90783662117936]
クリックスルーレート(CTR)の予測は、オンラインパーソナライズプラットフォームにとって不可欠である。
近年の進歩は、リッチなユーザの振る舞いをモデル化することで、CTR予測の性能を大幅に改善できることを示している。
マルチグラニュラリティ興味検索ネットワーク(MIRRN)を提案する。
論文 参考訳(メタデータ) (2024-11-22T15:29:05Z) - Long-Sequence Recommendation Models Need Decoupled Embeddings [49.410906935283585]
我々は、既存の長期推薦モデルにおいて無視された欠陥を識別し、特徴付ける。
埋め込みの単一のセットは、注意と表現の両方を学ぶのに苦労し、これら2つのプロセス間の干渉につながります。
本稿では,2つの異なる埋め込みテーブルを別々に学習し,注意と表現を完全に分離する,DARE(Decoupled Attention and Representation Embeddings)モデルを提案する。
論文 参考訳(メタデータ) (2024-10-03T15:45:15Z) - i$^2$VAE: Interest Information Augmentation with Variational Regularizers for Cross-Domain Sequential Recommendation [5.300964409946611]
i$2$VAEは、情報ベースレギュレータによるユーザ関心学習を強化する変分オートエンコーダである。
実験により、i$2$VAEは最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-05-31T09:07:03Z) - Look into the Future: Deep Contextualized Sequential Recommendation [28.726897673576865]
我々は、Look into the Future(LIFT)と呼ばれる、シーケンシャルなレコメンデーションの新しいフレームワークを提案する。
LIFTはシーケンシャルなレコメンデーションのコンテキストを構築し、活用する。
本実験では,クリックスルー率予測および評価予測タスクにおいて,LIFTは大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-05-23T09:34:28Z) - Learning Self-Modulating Attention in Continuous Time Space with
Applications to Sequential Recommendation [102.24108167002252]
本稿では,複雑で非線形に進化する動的ユーザの嗜好をモデル化する,自己変調型注意ネットワークを提案する。
提案手法がトップNシーケンシャルなレコメンデーションタスクに与える影響を実証的に示すとともに,3つの大規模実世界のデータセットによる結果から,我々のモデルが最先端のパフォーマンスを達成できることを示す。
論文 参考訳(メタデータ) (2022-03-30T03:54:11Z) - Improving Sequential Recommendations via Bidirectional Temporal Data Augmentation with Pre-training [46.5064172656298]
プレトレーニングによる双方向時間データ拡張(BARec)について紹介する。
提案手法は, 双方向の時間的拡張と知識強化による微調整を活用して, 真正な擬似優先順位項目を合成する。
5つのベンチマークデータセットに関する包括的実験分析により、短いシーケンスと長いシーケンスコンテキストの両方において、BARecの優位性が確認された。
論文 参考訳(メタデータ) (2021-12-13T07:33:28Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - Leveraging Historical Interaction Data for Improving Conversational
Recommender System [105.90963882850265]
アイテムと属性に基づく嗜好シーケンスを統合するための,新しい事前学習手法を提案する。
実世界の2つのデータセットの実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-19T03:43:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。