論文の概要: C-TLSAN: Content-Enhanced Time-Aware Long- and Short-Term Attention Network for Personalized Recommendation
- arxiv url: http://arxiv.org/abs/2506.13021v1
- Date: Mon, 16 Jun 2025 01:16:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.296446
- Title: C-TLSAN: Content-Enhanced Time-Aware Long- and Short-Term Attention Network for Personalized Recommendation
- Title(参考訳): C-TLSAN:パーソナライズされたレコメンデーションのためのコンテンツ強化タイムアウェア長期・短期アテンションネットワーク
- Authors: Siqi Liang, Yudi Zhang, Yubo Wang,
- Abstract要約: 我々はTLSANアーキテクチャの拡張であるC-TLSAN(Content-Enhanced Time-Aware Long- and Short-Term Attention Network)を提案する。
C-TLSANは、ユーザの過去のインタラクションにリンクしたテキストコンテンツを、長期的および短期的な注意層に直接埋め込むことで、レコメンデーションパイプラインを充実させる。
大規模なAmazonデータセットに対する広範な実験を行い、C-TLSANを最先端のベースラインに対してベンチマークする。
- 参考スコア(独自算出の注目度): 5.867032311769198
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sequential recommender systems aim to model users' evolving preferences by capturing patterns in their historical interactions. Recent advances in this area have leveraged deep neural networks and attention mechanisms to effectively represent sequential behaviors and time-sensitive interests. In this work, we propose C-TLSAN (Content-Enhanced Time-Aware Long- and Short-Term Attention Network), an extension of the TLSAN architecture that jointly models long- and short-term user preferences while incorporating semantic content associated with items, such as product descriptions. C-TLSAN enriches the recommendation pipeline by embedding textual content linked to users' historical interactions directly into both long-term and short-term attention layers. This allows the model to learn from both behavioral patterns and rich item content, enhancing user and item representations across temporal dimensions. By fusing sequential signals with textual semantics, our approach improves the expressiveness and personalization capacity of recommendation systems. We conduct extensive experiments on large-scale Amazon datasets, benchmarking C-TLSAN against state-of-the-art baselines, including recent sequential recommenders based on Large Language Models (LLMs), which represent interaction history and predictions in text form. Empirical results demonstrate that C-TLSAN consistently outperforms strong baselines in next-item prediction tasks. Notably, it improves AUC by 1.66%, Recall@10 by 93.99%, and Precision@10 by 94.80% on average over the best-performing baseline (TLSAN) across 10 Amazon product categories. These results highlight the value of integrating content-aware enhancements into temporal modeling frameworks for sequential recommendation. Our code is available at https://github.com/booml247/cTLSAN.
- Abstract(参考訳): 逐次リコメンデータシステムは、過去のインタラクションのパターンをキャプチャすることで、ユーザの進化する好みをモデル化することを目的としている。
この領域の最近の進歩は、シーケンシャルな行動や時間に敏感な関心を効果的に表現するために、ディープニューラルネットワークとアテンションメカニズムを活用している。
本研究では,長期的,短期的なユーザの嗜好をモデル化するTLSANアーキテクチャの拡張であるC-TLSAN(Content-Enhanced Time-Aware Long- and Short-Term Attention Network)を提案する。
C-TLSANは、ユーザの過去のインタラクションにリンクしたテキストコンテンツを、長期的および短期的な注意層に直接埋め込むことで、レコメンデーションパイプラインを充実させる。
これにより、モデルが行動パターンとリッチなアイテムコンテンツの両方から学習し、時間次元を越えてユーザとアイテムの表現を強化することができる。
逐次信号をテキストセマンティクスで融合することにより,提案手法は推薦システムの表現力とパーソナライズ能力を向上させる。
我々は、大規模Amazonデータセットの広範な実験を行い、C-TLSANを最先端のベースラインに対してベンチマークし、テキスト形式のインタラクション履歴と予測を表すLarge Language Models (LLMs)に基づく最近のシーケンシャルレコメンデータを含む、最先端のベースラインに対してベンチマークする。
実験の結果,C-TLSANは次点予測タスクにおいて強いベースラインを一貫して上回っていることがわかった。
特に、AUCを1.66%改善し、Recall@10を93.99%改善し、Precision@10を94.80%改善した。
これらの結果は、シーケンシャルなレコメンデーションのために、コンテンツ意識の強化を時間的モデリングフレームワークに統合する価値を強調している。
私たちのコードはhttps://github.com/booml247/cTLSANで利用可能です。
関連論文リスト
- Research on E-Commerce Long-Tail Product Recommendation Mechanism Based on Large-Scale Language Models [7.792622257477251]
大規模言語モデル(LLM)を用いた製品記述とユーザ行動シーケンスを統合した,新しいロングテール製品レコメンデーション機構を提案する。
我々の研究は、今後のeコマースレコメンデーションシステムにおいて、製品コンテンツとユーザ意図を解釈するLLMの可能性を強調します。
論文 参考訳(メタデータ) (2025-05-31T19:17:48Z) - Towards Explainable Temporal User Profiling with LLMs [3.719862246745416]
我々は,大規模言語モデル(LLM)を利用して,ユーザのインタラクション履歴の自然言語要約を生成する。
我々のフレームワークは、時間的ユーザの好みをモデル化するだけでなく、解釈可能な方法でレコメンデーションを説明するために使える自然言語プロファイルも生成する。
論文 参考訳(メタデータ) (2025-05-01T22:02:46Z) - Multi-granularity Interest Retrieval and Refinement Network for Long-Term User Behavior Modeling in CTR Prediction [68.90783662117936]
クリックスルーレート(CTR)の予測は、オンラインパーソナライズプラットフォームにとって不可欠である。
近年の進歩は、リッチなユーザの振る舞いをモデル化することで、CTR予測の性能を大幅に改善できることを示している。
マルチグラニュラリティ興味検索ネットワーク(MIRRN)を提案する。
論文 参考訳(メタデータ) (2024-11-22T15:29:05Z) - CLSA: Contrastive Learning-based Survival Analysis for Popularity
Prediction in MEC Networks [36.01752474571776]
ディープニューラルネットワーク(DNN)と統合されたモバイルエッジキャッシング(MEC)は、将来の次世代無線ネットワークにとって大きな可能性を秘めている革新的な技術である。
MECネットワークの有効性は、最も人気のあるコンテンツでキャッシュノードのストレージを予測し、動的に更新する能力に大きく依存している。
有効にするためには、DNNベースの人気予測モデルには、コンテンツの歴史的要求パターンを理解する能力が必要である。
論文 参考訳(メタデータ) (2023-03-21T15:57:46Z) - Sparse Attentive Memory Network for Click-through Rate Prediction with
Long Sequences [10.233015715433602]
本稿では,長期的ユーザ行動モデリングのためのスパース注意記憶ネットワークを提案する。
SAMは数千のスケールでユーザ行動シーケンスの効率的なトレーニングとリアルタイム推論をサポートする。
SAMは、世界最大の国際Eコマースプラットフォームのひとつとして成功している。
論文 参考訳(メタデータ) (2022-08-08T10:11:46Z) - Multi-Behavior Sequential Recommendation with Temporal Graph Transformer [66.10169268762014]
マルチビヘイビア・インタラクティブなパターンを意識した動的ユーザ・イテム関係学習に取り組む。
本稿では,動的短期および長期のユーザ・イテム対話パターンを共同でキャプチャする,TGT(Temporal Graph Transformer)レコメンデーションフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T15:42:54Z) - TLSAN: Time-aware Long- and Short-term Attention Network for Next-item
Recommendation [0.0]
我々は,TLSAN(Long-Aware and Short-Term Attention Network)を提案する。
TLSANは、長期的行動におけるカテゴリ認識相関を伴うトレーニング可能なパーソナライズされた時間位置埋め込みによって、ユーザー固有の時間的嗜好を学習する。
ユーザの長期的および短期的好みを効果的に捉え、正確な推奨のために、長期的および短期的機能的注意層が提案される。
論文 参考訳(メタデータ) (2021-03-16T10:51:57Z) - Dynamic Memory based Attention Network for Sequential Recommendation [79.5901228623551]
DMAN(Dynamic Memory-based Attention Network)と呼ばれる新しい連続的推薦モデルを提案する。
長い動作シーケンス全体を一連のサブシーケンスに分割し、モデルをトレーニングし、ユーザの長期的な利益を維持するためにメモリブロックのセットを維持する。
動的メモリに基づいて、ユーザの短期的および長期的関心を明示的に抽出し、組み合わせて効率的な共同推薦を行うことができる。
論文 参考訳(メタデータ) (2021-02-18T11:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。