論文の概要: Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach
- arxiv url: http://arxiv.org/abs/2305.07001v1
- Date: Thu, 11 May 2023 17:39:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 13:46:01.652136
- Title: Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach
- Title(参考訳): インストラクションとしてのレコメンデーション:大規模言語モデルによるレコメンデーションアプローチ
- Authors: Junjie Zhang, Ruobing Xie, Yupeng Hou, Wayne Xin Zhao, Leyu Lin,
Ji-Rong Wen
- Abstract要約: 我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
- 参考スコア(独自算出の注目度): 83.62750225073341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the past decades, recommender systems have attracted much attention in
both research and industry communities, and a large number of studies have been
devoted to developing effective recommendation models. Basically speaking,
these models mainly learn the underlying user preference from historical
behavior data, and then estimate the user-item matching relationships for
recommendations. Inspired by the recent progress on large language models
(LLMs), we take a different approach to developing the recommendation models,
considering recommendation as instruction following by LLMs. The key idea is
that the preferences or needs of a user can be expressed in natural language
descriptions (called instructions), so that LLMs can understand and further
execute the instruction for fulfilling the recommendation task. Instead of
using public APIs of LLMs, we instruction tune an open-source LLM (3B
Flan-T5-XL), in order to better adapt LLMs to recommender systems. For this
purpose, we first design a general instruction format for describing the
preference, intention, task form and context of a user in natural language.
Then we manually design 39 instruction templates and automatically generate a
large amount of user-personalized instruction data (252K instructions) with
varying types of preferences and intentions. To demonstrate the effectiveness
of our approach, we instantiate the instruction templates into several
widely-studied recommendation (or search) tasks, and conduct extensive
experiments on these tasks with real-world datasets. Experiment results show
that the proposed approach can outperform several competitive baselines,
including the powerful GPT-3.5, on these evaluation tasks. Our approach sheds
light on developing more user-friendly recommender systems, in which users can
freely communicate with the system and obtain more accurate recommendations via
natural language instructions.
- Abstract(参考訳): 過去数十年間、レコメンデーターシステムは研究コミュニティと産業コミュニティの両方で多くの注目を集めており、効果的なレコメンデーションモデルの開発に多くの研究が注がれている。
基本的に、これらのモデルは主に過去の行動データからユーザーの好みを学習し、レコメンデーションのためにユーザーとアイテムのマッチング関係を推定する。
大規模言語モデル (LLMs) の最近の進歩に触発されて,LLM の指示に従ってレコメンデーションを考慮し,レコメンデーションモデルの開発に異なるアプローチをとる。
キーとなる考え方は、ユーザの好みやニーズを自然言語記述(インストラクションと呼ばれる)で表現し、LLMがレコメンデーションタスクを実行するための命令を理解し、さらに実行できるようにすることである。
LLMの公開APIを使う代わりに、LLMを推奨システムに適応させるためにオープンソースのLLM(3B Flan-T5-XL)をチューニングする。
この目的のために,まず,ユーザの好み,意図,タスク形式,コンテキストを自然言語で記述するための一般的な命令形式を設計する。
次に、39の命令テンプレートを手動で設計し、好みや意図の異なる大量のユーザ個人化命令データ(252K命令)を自動的に生成する。
提案手法の有効性を実証するため,提案手法のテンプレートを複数の提案(あるいは探索)タスクにインスタンス化し,実世界のデータセットを用いてこれらのタスクについて広範な実験を行う。
実験の結果,提案手法は,強力なgpt-3.5を含むいくつかの競合ベースラインを上回ることができることがわかった。
提案手法では,よりユーザフレンドリなレコメンデーションシステムの構築に重点を置いており,ユーザが自由にシステムと通信し,自然言語によるより正確なレコメンデーションを得られる。
関連論文リスト
- A Prompting-Based Representation Learning Method for Recommendation with Large Language Models [2.1161973970603998]
本稿では,Recommender SystemsにおけるLarge Language Models(LLM)の言語能力を高めるために,Prompting-based Representation Learning Method for Recommendation(P4R)を紹介する。
P4Rフレームワークでは、パーソナライズされたアイテムプロファイルを作成するためにLSMプロンプト戦略を利用する。
評価では、P4Rと最先端のRecommenderモデルを比較し、プロンプトベースのプロファイル生成の品質を評価する。
論文 参考訳(メタデータ) (2024-09-25T07:06:14Z) - Laser: Parameter-Efficient LLM Bi-Tuning for Sequential Recommendation with Collaborative Information [76.62949982303532]
協調情報を用いた逐次レコメンデーションのためのパラメータ効率の高い大規模言語モデルバイチューニングフレームワーク(Laser)を提案する。
我々のレーザーでは,プレフィックスを用いてユーザと協調的な情報を取り込み,LLMをレコメンデーションタスクに適応させ,サフィックスは言語空間からレコメンデーションスペースへのLLMの出力埋め込みをリコメンデーション項目レコメンデーションスペースに変換する。
M-Formerは軽量なMoEベースのクエリ変換器で、クエリ専門家のセットを使用して、凍結IDベースのシーケンシャルレコメンデータシステムによって符号化された多様なユーザ固有の協調情報を統合する。
論文 参考訳(メタデータ) (2024-09-03T04:55:03Z) - Preference Distillation for Personalized Generative Recommendation [11.27949757550442]
本稿では,PErson Alized PrOmpt Distillation (PeaPOD)アプローチを提案する。
現実世界におけるユーザの嗜好の複雑さを考えると,ユーザの興味に基づいて動的に重み付けされる学習可能なプロンプトの共有集合を維持している。
実世界の3つのデータセットに対する実験結果から,PiaPODモデルがシーケンシャルレコメンデーション,トップnレコメンデーション,説明生成タスクに与える影響が示された。
論文 参考訳(メタデータ) (2024-07-06T09:58:58Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [50.74181089742969]
大規模言語モデル (LLM) は、理解、推論、指導において顕著な知性を示した。
本稿では, ブラックボックスレコメンデータモデルを説明するために, LLM を代理モデルとして利用することについて検討する。
効果的なアライメントを容易にするために,行動アライメント,意図アライメント,ハイブリッドアライメントという3つの手法を導入する。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - Reformulating Sequential Recommendation: Learning Dynamic User Interest with Content-enriched Language Modeling [18.297332953450514]
本稿では、事前学習した言語モデルの意味理解機能を活用してパーソナライズされたレコメンデーションを生成するLANCERを提案する。
我々のアプローチは、言語モデルとレコメンデーションシステムの間のギャップを埋め、より人間的なレコメンデーションを生み出します。
論文 参考訳(メタデータ) (2023-09-19T08:54:47Z) - LLM-Rec: Personalized Recommendation via Prompting Large Language Models [62.481065357472964]
大きな言語モデル(LLM)は、常識的な知識と推論を活用する能力を示した。
大規模言語モデル(LLM)の最近の進歩は、コモンセンスの知識と推論を活用できることを顕著に示している。
本研究では,パーソナライズされたテキストベースのレコメンデーションを改善するために,テキストエンリッチメントの4つの異なる促進戦略を取り入れた新しいアプローチ LLM-Rec を提案する。
論文 参考訳(メタデータ) (2023-07-24T18:47:38Z) - GenRec: Large Language Model for Generative Recommendation [41.22833600362077]
本稿では,テキストデータに基づく大規模言語モデル(LLM)を用いたレコメンデーションシステムに対する革新的なアプローチを提案する。
GenRecはLLMの理解機能を使ってコンテキストを解釈し、ユーザの好みを学習し、関連するレコメンデーションを生成する。
本研究は,レコメンデーションシステムの領域に革命をもたらす上で,LLMに基づくジェネレーティブレコメンデーションの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-02T02:37:07Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。