論文の概要: GPT4Rec: A Generative Framework for Personalized Recommendation and User
Interests Interpretation
- arxiv url: http://arxiv.org/abs/2304.03879v1
- Date: Sat, 8 Apr 2023 00:30:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 19:11:03.735959
- Title: GPT4Rec: A Generative Framework for Personalized Recommendation and User
Interests Interpretation
- Title(参考訳): gpt4rec:パーソナライズドレコメンデーションとユーザ関心の解釈のための生成フレームワーク
- Authors: Jinming Li, Wentao Zhang, Tian Wang, Guanglei Xiong, Alan Lu, Gerard
Medioni
- Abstract要約: GPT4Recは、検索エンジンにインスパイアされた、新しく柔軟な生成フレームワークである。
まず、ユーザの履歴にある項目のタイトルに関する仮説的な"検索クエリ"を生成し、これらのクエリを検索することで推奨項目を検索する。
我々のフレームワークは、2つの公開データセット上のRecall@Kにおいて、最先端のメソッドを75.7%と22.2%でパフォーマンスします。
- 参考スコア(独自算出の注目度): 8.293646972329581
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in Natural Language Processing (NLP) have led to the
development of NLP-based recommender systems that have shown superior
performance. However, current models commonly treat items as mere IDs and adopt
discriminative modeling, resulting in limitations of (1) fully leveraging the
content information of items and the language modeling capabilities of NLP
models; (2) interpreting user interests to improve relevance and diversity; and
(3) adapting practical circumstances such as growing item inventories. To
address these limitations, we present GPT4Rec, a novel and flexible generative
framework inspired by search engines. It first generates hypothetical "search
queries" given item titles in a user's history, and then retrieves items for
recommendation by searching these queries. The framework overcomes previous
limitations by learning both user and item embeddings in the language space. To
well-capture user interests with different aspects and granularity for
improving relevance and diversity, we propose a multi-query generation
technique with beam search. The generated queries naturally serve as
interpretable representations of user interests and can be searched to
recommend cold-start items. With GPT-2 language model and BM25 search engine,
our framework outperforms state-of-the-art methods by $75.7\%$ and $22.2\%$ in
Recall@K on two public datasets. Experiments further revealed that multi-query
generation with beam search improves both the diversity of retrieved items and
the coverage of a user's multi-interests. The adaptiveness and interpretability
of generated queries are discussed with qualitative case studies.
- Abstract(参考訳): 自然言語処理(NLP)の最近の進歩は、優れた性能を示すNLPベースのレコメンデータシステムの開発につながっている。
しかし、現在のモデルは、アイテムを単なるIDとして扱い、差別的モデリングを採用するため、(1)アイテムの内容情報とNLPモデルの言語モデリング能力を完全に活用すること、(2)ユーザの関心を解釈して関連性と多様性を向上すること、(3)アイテム在庫の増加などの実践的な状況に適応することの制限が生じる。
このような制約に対処するため,我々はgpt4recという新鮮で柔軟な生成フレームワークを提案する。
まず、ユーザの履歴にある項目のタイトルに関する仮説的な"検索クエリ"を生成し、これらのクエリを検索することで推奨項目を検索する。
このフレームワークは、ユーザとアイテムの埋め込みを言語空間で学習することで、以前の制限を克服する。
関連性と多様性を向上させるために,異なるアスペクトと粒度を持つユーザの興味をよく把握するために,ビーム探索を用いた多クエリ生成手法を提案する。
生成されたクエリは、自然にユーザの関心の解釈可能な表現となり、コールドスタートアイテムを推奨するために検索される。
GPT-2言語モデルとBM25検索エンジンにより、我々のフレームワークは2つの公開データセット上のRecall@Kにおいて、7.7 %$と2.2 %$の最先端メソッドよりも優れています。
さらに、ビームサーチによるマルチクエリ生成により、検索したアイテムの多様性とユーザのマルチ関心のカバレッジが向上することを明らかにした。
生成したクエリの適応性と解釈性を定性的なケーススタディで検討した。
関連論文リスト
- Bridging Search and Recommendation in Generative Retrieval: Does One Task Help the Other? [9.215695600542249]
検索とレコメンデーションのための生成的検索は、アイテムを検索する上で有望なパラダイムである。
これらの生成システムは、様々な情報検索タスクを単一のモデルにまとめる上で重要な役割を果たす。
本稿では,このような統合されたアプローチが,IRタスクの検索・推薦においてタスク固有モデルより優れているかどうかを考察する。
論文 参考訳(メタデータ) (2024-10-22T08:49:43Z) - Beyond Retrieval: Generating Narratives in Conversational Recommender Systems [4.912663905306209]
本稿では,会話レコメンデーションにおける自然言語生成タスクのための新しいデータセット(REGEN)を提案する。
我々は、よく知られた生成指標を用いてベンチマークを作成し、レーダLEMを用いて新しいデータセットの自動評価を行う。
そして、私たちの知る限りでは、レコメンデーター信号を理解し、リッチな物語を生成することにおけるLLMの能力を分析する最初の試みである。
論文 参考訳(メタデータ) (2024-10-22T07:53:41Z) - Generative Retrieval with Preference Optimization for E-commerce Search [16.78829577915103]
我々は、好みを最適化した生成検索という、Eコマース検索のための革新的なフレームワークを開発する。
生の項目のタイトルを表すためにマルチスパン識別子を使用し、クエリからタイトルを生成するタスクを、クエリからマルチスパン識別子を生成するタスクに変換する。
実験の結果,本フレームワークは実世界のデータセット上での競合性能を実現し,オンラインA/Bテストはコンバージョンゲインの改善における優位性と有効性を示した。
論文 参考訳(メタデータ) (2024-07-29T09:31:19Z) - ACE: A Generative Cross-Modal Retrieval Framework with Coarse-To-Fine Semantic Modeling [53.97609687516371]
我々は、エンドツーエンドのクロスモーダル検索のための先駆的なジェネリッククロスモーダル rEtrieval framework (ACE) を提案する。
ACEは、クロスモーダル検索における最先端のパフォーマンスを達成し、Recall@1の強いベースラインを平均15.27%上回る。
論文 参考訳(メタデータ) (2024-06-25T12:47:04Z) - Think-then-Act: A Dual-Angle Evaluated Retrieval-Augmented Generation [3.2134014920850364]
大型言語モデル(LLM)は時相の誤りや幻覚的内容の生成といった課題に直面していることが多い。
二重角評価による検索拡張生成フレームワーク textitThink-then-Act を提案する。
論文 参考訳(メタデータ) (2024-06-18T20:51:34Z) - A Survey of Generative Search and Recommendation in the Era of Large Language Models [125.26354486027408]
ジェネレーティブ検索(検索)とレコメンデーションは、マッチング問題をジェネレーティブな方法で解決することを目的としている。
超知能生成型大規模言語モデルが検索と推薦の新しいパラダイムを生み出した。
論文 参考訳(メタデータ) (2024-04-25T17:58:17Z) - MMGRec: Multimodal Generative Recommendation with Transformer Model [81.61896141495144]
MMGRecは、マルチモーダルレコメンデーションに生成パラダイムを導入することを目指している。
まず,階層的な量子化手法であるGraph CF-RQVAEを考案し,各項目にRec-IDを割り当てる。
次に、Transformerベースのレコメンデータをトレーニングし、過去のインタラクションシーケンスに基づいて、ユーザが推奨するアイテムのRec-IDを生成する。
論文 参考訳(メタデータ) (2024-04-25T12:11:27Z) - Generative Multi-Modal Knowledge Retrieval with Large Language Models [75.70313858231833]
マルチモーダル知識検索のための革新的なエンドツーエンド生成フレームワークを提案する。
我々のフレームワークは,大規模言語モデル(LLM)が仮想知識ベースとして効果的に機能するという事実を生かしている。
強いベースラインと比較すると,すべての評価指標に対して3.0%から14.6%の大幅な改善が見られた。
論文 参考訳(メタデータ) (2024-01-16T08:44:29Z) - Ada-Retrieval: An Adaptive Multi-Round Retrieval Paradigm for Sequential
Recommendations [50.03560306423678]
本稿では,レコメンダシステムのための適応型マルチラウンド検索パラダイムであるAda-Retrievalを提案する。
Ada-Retrievalは、ユーザー表現を反復的に洗練し、全項目領域の潜在的な候補をよりよく捉えます。
論文 参考訳(メタデータ) (2024-01-12T15:26:40Z) - Recommender Systems with Generative Retrieval [58.454606442670034]
本稿では,対象候補の識別子を自己回帰的に復号する新たな生成検索手法を提案する。
そのために、各項目のセマンティックIDとして機能するために、意味論的に意味のあるコードワードを作成します。
提案手法を用いて学習した推薦システムは,様々なデータセット上での現在のSOTAモデルよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-08T21:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。