論文の概要: Leveraging Historical and Current Interests for Continual Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2506.07466v1
- Date: Mon, 09 Jun 2025 06:20:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:47.122157
- Title: Leveraging Historical and Current Interests for Continual Sequential Recommendation
- Title(参考訳): シークエンシャルレコメンデーションにおける歴史的・現在的関心の活用
- Authors: Gyuseok Lee, Hyunsik Yoo, Junyoung Hwang, SeongKu Kang, Hwanjo Yu,
- Abstract要約: CSTRec(Continuous Sequential Transformer for Recommendation)
中心となるCSA(Continuous Sequential Attention)は、古いデータに直接アクセスすることなく過去の知識を保持する線形アテンションメカニズムである。
3つの実世界のデータセットの実験は、CSTRecが知識保持と獲得の両方において最先端のベースラインを上回っていることを示している。
- 参考スコア(独自算出の注目度): 18.396814193814652
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sequential recommendation models based on the Transformer architecture show superior performance in harnessing long-range dependencies within user behavior via self-attention. However, naively updating them on continuously arriving non-stationary data streams incurs prohibitive computation costs or leads to catastrophic forgetting. To address this, we propose Continual Sequential Transformer for Recommendation (CSTRec) that effectively leverages well-preserved historical user interests while capturing current interests. At its core is Continual Sequential Attention (CSA), a linear attention mechanism that retains past knowledge without direct access to old data. CSA integrates two key components: (1) Cauchy-Schwarz Normalization that stabilizes training under uneven interaction frequencies, and (2) Collaborative Interest Enrichment that mitigates forgetting through shared, learnable interest pools. We further introduce a technique that facilitates learning for cold-start users by transferring historical knowledge from behaviorally similar existing users. Extensive experiments on three real-world datasets indicate that CSTRec outperforms state-of-the-art baselines in both knowledge retention and acquisition.
- Abstract(参考訳): Transformerアーキテクチャに基づくシーケンシャルレコメンデーションモデルでは,ユーザ行動の長期依存性を自己注意によって活用する上で,優れたパフォーマンスを示す。
しかし、継続的に到着する非定常データストリームの更新は、不正な計算コストを発生させるか、破滅的な忘れを招きかねない。
そこで,本稿では,保存状態の良い歴史的ユーザの興味を効果的に活用し,現在の関心を捉えつつ,CSTRec(Continuous Sequential Transformer for Recommendation)を提案する。
中心となるCSA(Continuous Sequential Attention)は、古いデータに直接アクセスすることなく過去の知識を保持する線形アテンションメカニズムである。
コーシー=シュワルツ正規化(Cauchy-Schwarz Normalization)とは,(1)不均一な相互作用周波数下でトレーニングを安定させるもの,(2)共有・学習可能な利害プールを通じて忘れを緩和する協調的利害強化である。
さらに,行動に類似した既存ユーザからの履歴情報を転送することで,コールドスタートユーザのための学習を容易にする手法についても紹介する。
3つの実世界のデータセットに対する大規模な実験は、CSTRecが知識保持と取得の両方において最先端のベースラインを上回っていることを示している。
関連論文リスト
- Test-Time Alignment for Tracking User Interest Shifts in Sequential Recommendation [47.827361176767944]
シークエンシャルレコメンデーションは、ユーザが対話する可能性のある次の項目を予測することを目的として、現代のレコメンデーションシステムにおいて不可欠である。
現実のシナリオは、しばしば動的で、ユーザの関心事の変化を被る。
最近のテストタイムトレーニングは有望なパラダイムとして現れ、事前トレーニングされたモデルがテストデータに動的に適応できるようにする。
逐次レコメンデーションに適した2つのTest-Time Alignmentモジュールを導入することで,TTTのステートスペースモデルを活用した新しいモデルであるT$2$ARecを提案する。
論文 参考訳(メタデータ) (2025-04-02T08:42:30Z) - Multi-granularity Interest Retrieval and Refinement Network for Long-Term User Behavior Modeling in CTR Prediction [68.90783662117936]
クリックスルーレート(CTR)の予測は、オンラインパーソナライズプラットフォームにとって不可欠である。
近年の進歩は、リッチなユーザの振る舞いをモデル化することで、CTR予測の性能を大幅に改善できることを示している。
マルチグラニュラリティ興味検索ネットワーク(MIRRN)を提案する。
論文 参考訳(メタデータ) (2024-11-22T15:29:05Z) - Long-Sequence Recommendation Models Need Decoupled Embeddings [49.410906935283585]
我々は、既存の長期推薦モデルにおいて無視された欠陥を識別し、特徴付ける。
埋め込みの単一のセットは、注意と表現の両方を学ぶのに苦労し、これら2つのプロセス間の干渉につながります。
本稿では,2つの異なる埋め込みテーブルを別々に学習し,注意と表現を完全に分離する,DARE(Decoupled Attention and Representation Embeddings)モデルを提案する。
論文 参考訳(メタデータ) (2024-10-03T15:45:15Z) - i$^2$VAE: Interest Information Augmentation with Variational Regularizers for Cross-Domain Sequential Recommendation [5.300964409946611]
i$2$VAEは、情報ベースレギュレータによるユーザ関心学習を強化する変分オートエンコーダである。
実験により、i$2$VAEは最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-05-31T09:07:03Z) - Look into the Future: Deep Contextualized Sequential Recommendation [28.726897673576865]
我々は、Look into the Future(LIFT)と呼ばれる、シーケンシャルなレコメンデーションの新しいフレームワークを提案する。
LIFTはシーケンシャルなレコメンデーションのコンテキストを構築し、活用する。
本実験では,クリックスルー率予測および評価予測タスクにおいて,LIFTは大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-05-23T09:34:28Z) - Learning Self-Modulating Attention in Continuous Time Space with
Applications to Sequential Recommendation [102.24108167002252]
本稿では,複雑で非線形に進化する動的ユーザの嗜好をモデル化する,自己変調型注意ネットワークを提案する。
提案手法がトップNシーケンシャルなレコメンデーションタスクに与える影響を実証的に示すとともに,3つの大規模実世界のデータセットによる結果から,我々のモデルが最先端のパフォーマンスを達成できることを示す。
論文 参考訳(メタデータ) (2022-03-30T03:54:11Z) - Improving Sequential Recommendations via Bidirectional Temporal Data Augmentation with Pre-training [46.5064172656298]
プレトレーニングによる双方向時間データ拡張(BARec)について紹介する。
提案手法は, 双方向の時間的拡張と知識強化による微調整を活用して, 真正な擬似優先順位項目を合成する。
5つのベンチマークデータセットに関する包括的実験分析により、短いシーケンスと長いシーケンスコンテキストの両方において、BARecの優位性が確認された。
論文 参考訳(メタデータ) (2021-12-13T07:33:28Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - Leveraging Historical Interaction Data for Improving Conversational
Recommender System [105.90963882850265]
アイテムと属性に基づく嗜好シーケンスを統合するための,新しい事前学習手法を提案する。
実世界の2つのデータセットの実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-19T03:43:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。