論文の概要: SPAR: Personalized Content-Based Recommendation via Long Engagement
Attention
- arxiv url: http://arxiv.org/abs/2402.10555v1
- Date: Fri, 16 Feb 2024 10:36:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 16:52:52.306824
- Title: SPAR: Personalized Content-Based Recommendation via Long Engagement
Attention
- Title(参考訳): SPAR:Long Engagement Attentionによるパーソナライズされたコンテンツベースのレコメンデーション
- Authors: Chiyu Zhang, Yifei Sun, Jun Chen, Jie Lei, Muhammad Abdul-Mageed,
Sinong Wang, Rong Jin, Sem Park, Ning Yao, Bo Long
- Abstract要約: パーソナライズされたコンテンツのレコメンデーションには、ユーザの長いエンゲージメント履歴を活用することが不可欠だ。
本稿では,コンテンツベースのレコメンデーションフレームワークであるSPARを導入する。
我々のフレームワークは、既存の最先端(SoTA)メソッドよりも優れています。
- 参考スコア(独自算出の注目度): 44.47949145944619
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Leveraging users' long engagement histories is essential for personalized
content recommendations. The success of pretrained language models (PLMs) in
NLP has led to their use in encoding user histories and candidate items,
framing content recommendations as textual semantic matching tasks. However,
existing works still struggle with processing very long user historical text
and insufficient user-item interaction. In this paper, we introduce a
content-based recommendation framework, SPAR, which effectively tackles the
challenges of holistic user interest extraction from the long user engagement
history. It achieves so by leveraging PLM, poly-attention layers and attention
sparsity mechanisms to encode user's history in a session-based manner. The
user and item side features are sufficiently fused for engagement prediction
while maintaining standalone representations for both sides, which is efficient
for practical model deployment. Moreover, we enhance user profiling by
exploiting large language model (LLM) to extract global interests from user
engagement history. Extensive experiments on two benchmark datasets demonstrate
that our framework outperforms existing state-of-the-art (SoTA) methods.
- Abstract(参考訳): パーソナライズされたコンテンツレコメンデーションには、ユーザの長いエンゲージメント履歴を活用することが不可欠だ。
NLPにおける事前訓練言語モデル(PLM)の成功により、ユーザ履歴や候補項目のエンコード、コンテンツ推奨のフレーミングをテキスト意味マッチングタスクとして利用するようになった。
しかし、既存の作業は、非常に長いユーザ履歴テキストの処理とユーザとイテムの相互作用の不十分さに苦慮している。
本稿では,コンテンツベースのレコメンデーションフレームワークであるSPARを紹介し,長いユーザエンゲージメント履歴から全体的ユーザ関心抽出の課題を効果的に解決する。
PLM、ポリアテンション・レイヤ、アテンション・スパシティ・メカニズムを活用して、セッションベースでユーザーの履歴をエンコードする。
ユーザ側とアイテム側の特徴は、双方のスタンドアロン表現を維持しながら、エンゲージメント予測に十分な融通を保ち、実用的なモデル展開に効率的である。
さらに,ユーザエンゲージメント履歴からグローバルな関心を抽出するために,大規模言語モデル(LLM)を活用してユーザプロファイリングを強化する。
2つのベンチマークデータセットに対する大規模な実験は、我々のフレームワークが既存の最先端(SoTA)メソッドより優れていることを示している。
関連論文リスト
- LLM-assisted Explicit and Implicit Multi-interest Learning Framework for Sequential Recommendation [50.98046887582194]
本研究では,ユーザの興味を2つのレベル – 行動と意味論 – でモデル化する,明示的で暗黙的な多目的学習フレームワークを提案する。
提案するEIMFフレームワークは,小型モデルとLLMを効果的に組み合わせ,多目的モデリングの精度を向上させる。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - UserSumBench: A Benchmark Framework for Evaluating User Summarization Approaches [25.133460380551327]
大規模言語モデル(LLM)は、大量のユーザアクティビティデータからユーザ要約を生成する際、顕著な能力を示している。
これらの要約は、好みや興味などの重要なユーザー情報を取り込み、パーソナライズ・アプリケーションには有用である。
しかし, 新たな要約手法の開発は, ゼロ・トラストラベルの欠如, ユーザ・サマリー固有の主観性, 人的評価などによって妨げられている。
論文 参考訳(メタデータ) (2024-08-30T01:56:57Z) - Improving LLMs for Recommendation with Out-Of-Vocabulary Tokens [51.584024345378005]
本稿では,Large Language Models (LLMs) ベースのレコメンデータシステムにおいて,ユーザや項目を効果的にトークンする方法を示す。
語彙内トークンに加えて、語彙外トークン(OOV)の役割も強調する。
提案するフレームワークは,様々なダウンストリームレコメンデーションタスクにおいて,既存の最先端メソッドよりも優れている。
論文 参考訳(メタデータ) (2024-06-12T17:59:05Z) - LLM-ESR: Large Language Models Enhancement for Long-tailed Sequential Recommendation [58.04939553630209]
現実世界のシステムでは、ほとんどのユーザーはほんの一握りのアイテムしか扱わないが、ほとんどのアイテムは滅多に消費されない。
これら2つの課題は、ロングテールユーザーとロングテールアイテムの課題として知られ、しばしば既存のシークエンシャルレコメンデーションシステムに困難をもたらす。
本稿では,これらの課題に対処するため,Large Language Models Enhancement framework for Sequential Recommendation (LLM-ESR)を提案する。
論文 参考訳(メタデータ) (2024-05-31T07:24:42Z) - EmbSum: Leveraging the Summarization Capabilities of Large Language Models for Content-Based Recommendations [38.44534579040017]
ユーザと候補項目のオフライン事前計算を可能にするフレームワークであるEmbSumを紹介する。
このモデルがユーザ興味の要約を生成する能力は貴重な副産物であり、パーソナライズされたコンテンツレコメンデーションに有用である。
論文 参考訳(メタデータ) (2024-05-19T04:31:54Z) - InteraRec: Screenshot Based Recommendations Using Multimodal Large Language Models [0.6926105253992517]
InteraRecと呼ばれる洗練されたインタラクティブなレコメンデーションフレームワークを紹介します。
InteraRecは、ユーザがWebサイトをナビゲートするときに、Webページの高周波スクリーンショットをキャプチャする。
ユーザに対して価値あるパーソナライズされたオファリングを提供する上で、InteraRecの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-26T17:47:57Z) - User Embedding Model for Personalized Language Prompting [9.472634942498859]
自由形式のテキストでユーザ履歴を効率よく処理し,それを埋め込みとして表現する新しいユーザ埋め込みモジュール(UEM)を導入する。
本実験は, より長い歴史を扱う上で, このアプローチの優れた能力を示すものである。
この研究の主な貢献は、埋め込みとして表現されたユーザ信号で言語モデルをバイアスする能力を示すことである。
論文 参考訳(メタデータ) (2024-01-10T00:35:52Z) - Integrating Summarization and Retrieval for Enhanced Personalization via
Large Language Models [11.950478880423733]
パーソナライゼーションは自然言語処理(NLP)システムにおけるユーザエクスペリエンスにおいて重要な要素である。
LLM(Large Language Models)の出現によって、重要な疑問は、これらのモデルを使ってユーザエクスペリエンスをよりパーソナライズする方法である。
LLMが生成するタスク対応ユーザ要約を用いた,新しい要約型パーソナライゼーションを提案する。
論文 参考訳(メタデータ) (2023-10-30T23:40:41Z) - iFacetSum: Coreference-based Interactive Faceted Summarization for
Multi-Document Exploration [63.272359227081836]
iFacetSumは、インタラクティブな要約と顔検索を統合している。
微粒なファセットは、クロスドキュメントのコア参照パイプラインに基づいて自動的に生成される。
論文 参考訳(メタデータ) (2021-09-23T20:01:11Z) - Sequential Recommender via Time-aware Attentive Memory Network [67.26862011527986]
本稿では,注意機構と繰り返し単位を改善するための時間ゲーティング手法を提案する。
また,長期と短期の嗜好を統合するマルチホップ・タイムアウェア・アテンテーティブ・メモリ・ネットワークを提案する。
提案手法は,候補探索タスクに対してスケーラブルであり,ドット積に基づくTop-Kレコメンデーションのための潜在因数分解の非線形一般化とみなすことができる。
論文 参考訳(メタデータ) (2020-05-18T11:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。