論文の概要: EmbSum: Leveraging the Summarization Capabilities of Large Language Models for Content-Based Recommendations
- arxiv url: http://arxiv.org/abs/2405.11441v2
- Date: Mon, 19 Aug 2024 08:50:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 02:38:38.269650
- Title: EmbSum: Leveraging the Summarization Capabilities of Large Language Models for Content-Based Recommendations
- Title(参考訳): EmbSum: コンテンツベースのレコメンデーションのための大規模言語モデルの要約機能を活用する
- Authors: Chiyu Zhang, Yifei Sun, Minghao Wu, Jun Chen, Jie Lei, Muhammad Abdul-Mageed, Rong Jin, Angli Liu, Ji Zhu, Sem Park, Ning Yao, Bo Long,
- Abstract要約: ユーザと候補項目のオフライン事前計算を可能にするフレームワークであるEmbSumを紹介する。
このモデルがユーザ興味の要約を生成する能力は貴重な副産物であり、パーソナライズされたコンテンツレコメンデーションに有用である。
- 参考スコア(独自算出の注目度): 38.44534579040017
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Content-based recommendation systems play a crucial role in delivering personalized content to users in the digital world. In this work, we introduce EmbSum, a novel framework that enables offline pre-computations of users and candidate items while capturing the interactions within the user engagement history. By utilizing the pretrained encoder-decoder model and poly-attention layers, EmbSum derives User Poly-Embedding (UPE) and Content Poly-Embedding (CPE) to calculate relevance scores between users and candidate items. EmbSum actively learns the long user engagement histories by generating user-interest summary with supervision from large language model (LLM). The effectiveness of EmbSum is validated on two datasets from different domains, surpassing state-of-the-art (SoTA) methods with higher accuracy and fewer parameters. Additionally, the model's ability to generate summaries of user interests serves as a valuable by-product, enhancing its usefulness for personalized content recommendations.
- Abstract(参考訳): コンテンツベースのレコメンデーションシステムは、デジタル世界のユーザにパーソナライズされたコンテンツを届ける上で重要な役割を果たす。
本研究では,ユーザエンゲージメント履歴内のインタラクションをキャプチャしながら,ユーザと候補項目のオフライン事前計算を可能にする新しいフレームワークであるEmbSumを紹介する。
EmbSumは、事前訓練されたエンコーダデコーダモデルとポリアテンション層を利用して、ユーザポリエンベッドディング(UPE)とコンテンツポリエンベッドディング(CPE)を導出し、ユーザと候補アイテム間の関連スコアを算出する。
EmbSumは,大規模言語モデル(LLM)からユーザと関心の要約を生成することによって,長いユーザエンゲージメント履歴を積極的に学習する。
EmbSumの有効性は、異なるドメインの2つのデータセットで検証され、より正確で少ないパラメータで最先端(SoTA)メソッドを上回る。
さらに、モデルがユーザ興味の要約を生成する能力は価値ある副産物となり、パーソナライズされたコンテンツレコメンデーションに有用性を高める。
関連論文リスト
- LLM-assisted Explicit and Implicit Multi-interest Learning Framework for Sequential Recommendation [50.98046887582194]
本研究では,ユーザの興味を2つのレベル – 行動と意味論 – でモデル化する,明示的で暗黙的な多目的学習フレームワークを提案する。
提案するEIMFフレームワークは,小型モデルとLLMを効果的に組み合わせ,多目的モデリングの精度を向上させる。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - UserSumBench: A Benchmark Framework for Evaluating User Summarization Approaches [25.133460380551327]
大規模言語モデル(LLM)は、大量のユーザアクティビティデータからユーザ要約を生成する際、顕著な能力を示している。
これらの要約は、好みや興味などの重要なユーザー情報を取り込み、パーソナライズ・アプリケーションには有用である。
しかし, 新たな要約手法の開発は, ゼロ・トラストラベルの欠如, ユーザ・サマリー固有の主観性, 人的評価などによって妨げられている。
論文 参考訳(メタデータ) (2024-08-30T01:56:57Z) - InteraRec: Screenshot Based Recommendations Using Multimodal Large Language Models [0.6926105253992517]
InteraRecと呼ばれる洗練されたインタラクティブなレコメンデーションフレームワークを紹介します。
InteraRecは、ユーザがWebサイトをナビゲートするときに、Webページの高周波スクリーンショットをキャプチャする。
ユーザに対して価値あるパーソナライズされたオファリングを提供する上で、InteraRecの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-26T17:47:57Z) - Breaking the Barrier: Utilizing Large Language Models for Industrial
Recommendation Systems through an Inferential Knowledge Graph [19.201697767418597]
大規模言語モデルに基づく補完的知識強化推薦システム(LLM-KERec)を提案する。
アイテムとユーザ情報から統一された概念用語を抽出し、ユーザ意図の遷移をキャプチャし、新しいアイテムに適応する。
3つの業界データセットで実施された大規模な実験は、既存のアプローチと比較して、我々のモデルの大幅な性能向上を実証している。
論文 参考訳(メタデータ) (2024-02-21T12:22:01Z) - SPAR: Personalized Content-Based Recommendation via Long Engagement Attention [43.04717491985609]
パーソナライズされたコンテンツのレコメンデーションには、ユーザの長いエンゲージメント履歴を活用することが不可欠だ。
本稿では,コンテンツベースのレコメンデーションフレームワークであるSPARを導入する。
我々のフレームワークは、既存の最先端(SoTA)メソッドよりも優れています。
論文 参考訳(メタデータ) (2024-02-16T10:36:38Z) - MISSRec: Pre-training and Transferring Multi-modal Interest-aware
Sequence Representation for Recommendation [61.45986275328629]
逐次レコメンデーションのためのマルチモーダル事前学習・転送学習フレームワークであるMISSRecを提案する。
ユーザ側ではトランスフォーマーベースのエンコーダデコーダモデルを設計し、コンテキストエンコーダがシーケンスレベルのマルチモーダルユーザ興味を捉えることを学習する。
候補項目側では,ユーザ適応項目表現を生成するために動的融合モジュールを採用する。
論文 参考訳(メタデータ) (2023-08-22T04:06:56Z) - Latent User Intent Modeling for Sequential Recommenders [92.66888409973495]
逐次リコメンデータモデルは、プラットフォーム上での氏のインタラクション履歴に基づいて、ユーザが次に対話する可能性のあるアイテムを予測することを学習する。
しかし、ほとんどのシーケンシャルなレコメンデータは、ユーザの意図に対する高いレベルの理解を欠いている。
したがって、インテントモデリングはユーザー理解と長期ユーザーエクスペリエンスの最適化に不可欠である。
論文 参考訳(メタデータ) (2022-11-17T19:00:24Z) - GUIM -- General User and Item Embedding with Mixture of Representation
in E-commerce [13.142842265419262]
私たちのゴールは、Alibabaのビジネス全体で、各ユーザと各製品アイテムに対して、汎用的な表現(埋め込み)を構築することです。
自然言語処理(NLP)領域におけるBERTモデルに着想を得て,GUIM(General User Item embedding with Mixture of representation)モデルを提案する。
表現の混合(MoR)を新しい表現形式として利用し、各ユーザの多様な興味をモデル化する。
論文 参考訳(メタデータ) (2022-07-02T06:27:54Z) - PinnerSage: Multi-Modal User Embedding Framework for Recommendations at
Pinterest [54.56236567783225]
PinnerSageはエンド・ツー・エンドのレコメンデーションシステムで、マルチモーダル・埋め込みを通じて各ユーザーを表現する。
オフラインおよびオンラインA/B実験を複数実施し,本手法が単一埋め込み法より有意に優れていることを示す。
論文 参考訳(メタデータ) (2020-07-07T17:13:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。