論文の概要: GPT4Rec: A Generative Framework for Personalized Recommendation and User
Interests Interpretation
- arxiv url: http://arxiv.org/abs/2304.03879v1
- Date: Sat, 8 Apr 2023 00:30:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 19:11:03.735959
- Title: GPT4Rec: A Generative Framework for Personalized Recommendation and User
Interests Interpretation
- Title(参考訳): gpt4rec:パーソナライズドレコメンデーションとユーザ関心の解釈のための生成フレームワーク
- Authors: Jinming Li, Wentao Zhang, Tian Wang, Guanglei Xiong, Alan Lu, Gerard
Medioni
- Abstract要約: GPT4Recは、検索エンジンにインスパイアされた、新しく柔軟な生成フレームワークである。
まず、ユーザの履歴にある項目のタイトルに関する仮説的な"検索クエリ"を生成し、これらのクエリを検索することで推奨項目を検索する。
我々のフレームワークは、2つの公開データセット上のRecall@Kにおいて、最先端のメソッドを75.7%と22.2%でパフォーマンスします。
- 参考スコア(独自算出の注目度): 8.293646972329581
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in Natural Language Processing (NLP) have led to the
development of NLP-based recommender systems that have shown superior
performance. However, current models commonly treat items as mere IDs and adopt
discriminative modeling, resulting in limitations of (1) fully leveraging the
content information of items and the language modeling capabilities of NLP
models; (2) interpreting user interests to improve relevance and diversity; and
(3) adapting practical circumstances such as growing item inventories. To
address these limitations, we present GPT4Rec, a novel and flexible generative
framework inspired by search engines. It first generates hypothetical "search
queries" given item titles in a user's history, and then retrieves items for
recommendation by searching these queries. The framework overcomes previous
limitations by learning both user and item embeddings in the language space. To
well-capture user interests with different aspects and granularity for
improving relevance and diversity, we propose a multi-query generation
technique with beam search. The generated queries naturally serve as
interpretable representations of user interests and can be searched to
recommend cold-start items. With GPT-2 language model and BM25 search engine,
our framework outperforms state-of-the-art methods by $75.7\%$ and $22.2\%$ in
Recall@K on two public datasets. Experiments further revealed that multi-query
generation with beam search improves both the diversity of retrieved items and
the coverage of a user's multi-interests. The adaptiveness and interpretability
of generated queries are discussed with qualitative case studies.
- Abstract(参考訳): 自然言語処理(NLP)の最近の進歩は、優れた性能を示すNLPベースのレコメンデータシステムの開発につながっている。
しかし、現在のモデルは、アイテムを単なるIDとして扱い、差別的モデリングを採用するため、(1)アイテムの内容情報とNLPモデルの言語モデリング能力を完全に活用すること、(2)ユーザの関心を解釈して関連性と多様性を向上すること、(3)アイテム在庫の増加などの実践的な状況に適応することの制限が生じる。
このような制約に対処するため,我々はgpt4recという新鮮で柔軟な生成フレームワークを提案する。
まず、ユーザの履歴にある項目のタイトルに関する仮説的な"検索クエリ"を生成し、これらのクエリを検索することで推奨項目を検索する。
このフレームワークは、ユーザとアイテムの埋め込みを言語空間で学習することで、以前の制限を克服する。
関連性と多様性を向上させるために,異なるアスペクトと粒度を持つユーザの興味をよく把握するために,ビーム探索を用いた多クエリ生成手法を提案する。
生成されたクエリは、自然にユーザの関心の解釈可能な表現となり、コールドスタートアイテムを推奨するために検索される。
GPT-2言語モデルとBM25検索エンジンにより、我々のフレームワークは2つの公開データセット上のRecall@Kにおいて、7.7 %$と2.2 %$の最先端メソッドよりも優れています。
さらに、ビームサーチによるマルチクエリ生成により、検索したアイテムの多様性とユーザのマルチ関心のカバレッジが向上することを明らかにした。
生成したクエリの適応性と解釈性を定性的なケーススタディで検討した。
関連論文リスト
- A Survey of Generative Search and Recommendation in the Era of Large Language Models [125.26354486027408]
ジェネレーティブ検索(検索)とレコメンデーションは、マッチング問題をジェネレーティブな方法で解決することを目的としている。
超知能生成型大規模言語モデルが検索と推薦の新しいパラダイムを生み出した。
論文 参考訳(メタデータ) (2024-04-25T17:58:17Z) - Leveraging Large Language Models for Multimodal Search [0.6249768559720121]
本稿では,Fashion200Kデータセット上での新たなパフォーマンスマイルストーンを実現する,新しいマルチモーダル検索モデルを提案する。
また,Large Language Models (LLM) を統合した新たな検索インタフェースを提案する。
論文 参考訳(メタデータ) (2024-04-24T10:30:42Z) - Generative Multi-Modal Knowledge Retrieval with Large Language Models [75.70313858231833]
マルチモーダル知識検索のための革新的なエンドツーエンド生成フレームワークを提案する。
我々のフレームワークは,大規模言語モデル(LLM)が仮想知識ベースとして効果的に機能するという事実を生かしている。
強いベースラインと比較すると,すべての評価指標に対して3.0%から14.6%の大幅な改善が見られた。
論文 参考訳(メタデータ) (2024-01-16T08:44:29Z) - Ada-Retrieval: An Adaptive Multi-Round Retrieval Paradigm for Sequential
Recommendations [50.03560306423678]
本稿では,レコメンダシステムのための適応型マルチラウンド検索パラダイムであるAda-Retrievalを提案する。
Ada-Retrievalは、ユーザー表現を反復的に洗練し、全項目領域の潜在的な候補をよりよく捉えます。
論文 参考訳(メタデータ) (2024-01-12T15:26:40Z) - Knowledge-Augmented Large Language Models for Personalized Contextual
Query Suggestion [16.563311988191636]
我々は,Web上での検索と閲覧活動に基づいて,各ユーザを対象としたエンティティ中心の知識ストアを構築した。
この知識ストアは、公的な知識グラフ上の興味と知識のユーザ固有の集約予測のみを生成するため、軽量である。
論文 参考訳(メタデータ) (2023-11-10T01:18:47Z) - Enhancing Retrieval-Augmented Large Language Models with Iterative
Retrieval-Generation Synergy [164.83371924650294]
検索と生成を反復的に同期させるIter-RetGenと呼ばれる手法により,高い性能が得られることを示す。
モデル出力は、タスクを完了するために必要なものを示し、より関連する知識を取得するための情報的コンテキストを提供する。
Iter-RetGenプロセスは、すべての知識を全体として取得し、構造的な制約なしに生成時の柔軟性をほとんど保持します。
論文 参考訳(メタデータ) (2023-05-24T16:17:36Z) - Recommender Systems with Generative Retrieval [58.454606442670034]
本稿では,対象候補の識別子を自己回帰的に復号する新たな生成検索手法を提案する。
そのために、各項目のセマンティックIDとして機能するために、意味論的に意味のあるコードワードを作成します。
提案手法を用いて学習した推薦システムは,様々なデータセット上での現在のSOTAモデルよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-08T21:48:17Z) - Empirical Evaluation of ChatGPT on Requirements Information Retrieval
Under Zero-Shot Setting [12.733403458944972]
要求情報検索タスクにおいてChatGPTの性能を実証的に評価する。
ゼロショット設定では、ChatGPTが要求情報を検索する有望な能力を示す。
論文 参考訳(メタデータ) (2023-04-25T04:09:45Z) - Generate rather than Retrieve: Large Language Models are Strong Context
Generators [74.87021992611672]
本稿では,文書検索を大規模言語モデル生成器に置き換えることで,知識集約型タスクを解く新しい視点を提案する。
我々は,提案手法をgenRead (genRead) と呼び,まず大きな言語モデルに対して,与えられた質問に基づいて文脈文書を生成し,次に生成された文書を読み出して最終回答を生成する。
論文 参考訳(メタデータ) (2022-09-21T01:30:59Z) - GQE-PRF: Generative Query Expansion with Pseudo-Relevance Feedback [8.142861977776256]
PRFに基づくクエリ拡張にテキスト生成モデルを効果的に統合する新しい手法を提案する。
提案手法では,初期クエリと擬似関連フィードバックの両方を条件としたニューラルテキスト生成モデルを用いて,拡張クエリ項を生成する。
2つのベンチマークデータセットを用いて,情報検索タスクに対するアプローチの有効性を評価する。
論文 参考訳(メタデータ) (2021-08-13T01:09:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。