論文の概要: Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach
- arxiv url: http://arxiv.org/abs/2305.07001v1
- Date: Thu, 11 May 2023 17:39:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 13:46:01.652136
- Title: Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach
- Title(参考訳): インストラクションとしてのレコメンデーション:大規模言語モデルによるレコメンデーションアプローチ
- Authors: Junjie Zhang, Ruobing Xie, Yupeng Hou, Wayne Xin Zhao, Leyu Lin,
Ji-Rong Wen
- Abstract要約: 我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
- 参考スコア(独自算出の注目度): 83.62750225073341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the past decades, recommender systems have attracted much attention in
both research and industry communities, and a large number of studies have been
devoted to developing effective recommendation models. Basically speaking,
these models mainly learn the underlying user preference from historical
behavior data, and then estimate the user-item matching relationships for
recommendations. Inspired by the recent progress on large language models
(LLMs), we take a different approach to developing the recommendation models,
considering recommendation as instruction following by LLMs. The key idea is
that the preferences or needs of a user can be expressed in natural language
descriptions (called instructions), so that LLMs can understand and further
execute the instruction for fulfilling the recommendation task. Instead of
using public APIs of LLMs, we instruction tune an open-source LLM (3B
Flan-T5-XL), in order to better adapt LLMs to recommender systems. For this
purpose, we first design a general instruction format for describing the
preference, intention, task form and context of a user in natural language.
Then we manually design 39 instruction templates and automatically generate a
large amount of user-personalized instruction data (252K instructions) with
varying types of preferences and intentions. To demonstrate the effectiveness
of our approach, we instantiate the instruction templates into several
widely-studied recommendation (or search) tasks, and conduct extensive
experiments on these tasks with real-world datasets. Experiment results show
that the proposed approach can outperform several competitive baselines,
including the powerful GPT-3.5, on these evaluation tasks. Our approach sheds
light on developing more user-friendly recommender systems, in which users can
freely communicate with the system and obtain more accurate recommendations via
natural language instructions.
- Abstract(参考訳): 過去数十年間、レコメンデーターシステムは研究コミュニティと産業コミュニティの両方で多くの注目を集めており、効果的なレコメンデーションモデルの開発に多くの研究が注がれている。
基本的に、これらのモデルは主に過去の行動データからユーザーの好みを学習し、レコメンデーションのためにユーザーとアイテムのマッチング関係を推定する。
大規模言語モデル (LLMs) の最近の進歩に触発されて,LLM の指示に従ってレコメンデーションを考慮し,レコメンデーションモデルの開発に異なるアプローチをとる。
キーとなる考え方は、ユーザの好みやニーズを自然言語記述(インストラクションと呼ばれる)で表現し、LLMがレコメンデーションタスクを実行するための命令を理解し、さらに実行できるようにすることである。
LLMの公開APIを使う代わりに、LLMを推奨システムに適応させるためにオープンソースのLLM(3B Flan-T5-XL)をチューニングする。
この目的のために,まず,ユーザの好み,意図,タスク形式,コンテキストを自然言語で記述するための一般的な命令形式を設計する。
次に、39の命令テンプレートを手動で設計し、好みや意図の異なる大量のユーザ個人化命令データ(252K命令)を自動的に生成する。
提案手法の有効性を実証するため,提案手法のテンプレートを複数の提案(あるいは探索)タスクにインスタンス化し,実世界のデータセットを用いてこれらのタスクについて広範な実験を行う。
実験の結果,提案手法は,強力なgpt-3.5を含むいくつかの競合ベースラインを上回ることができることがわかった。
提案手法では,よりユーザフレンドリなレコメンデーションシステムの構築に重点を置いており,ユーザが自由にシステムと通信し,自然言語によるより正確なレコメンデーションを得られる。
関連論文リスト
- Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - RecExplainer: Aligning Large Language Models for Recommendation Model
Interpretability [53.76682562935373]
本稿では,大規模言語モデルを代理モデルとして用いて,推薦システムに対する新しいモデル解釈手法を提案する。
具体的には,行動アライメント,意図アライメント,ハイブリッドアライメントという3つのアライメント手法を導入する。
提案手法により,LLMはレコメンデーションモデルのパターンを理解し,信頼性の高いレコメンデーション説明を生成することができる。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - Reformulating Sequential Recommendation: Learning Dynamic User Interest
with Content-enriched Language Modeling [6.52491975632466]
本稿では、事前学習した言語モデルの意味理解機能を活用してパーソナライズされたレコメンデーションを生成するLANCERを提案する。
我々のアプローチは、言語モデルとレコメンデーションシステムの間のギャップを埋め、より人間的なレコメンデーションを生み出します。
論文 参考訳(メタデータ) (2023-09-19T08:54:47Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - GenRec: Large Language Model for Generative Recommendation [41.22833600362077]
本稿では,テキストデータに基づく大規模言語モデル(LLM)を用いたレコメンデーションシステムに対する革新的なアプローチを提案する。
GenRecはLLMの理解機能を使ってコンテキストを解釈し、ユーザの好みを学習し、関連するレコメンデーションを生成する。
本研究は,レコメンデーションシステムの領域に革命をもたらす上で,LLMに基づくジェネレーティブレコメンデーションの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-02T02:37:07Z) - A Survey on Large Language Models for Recommendation [80.01023231943205]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - PALR: Personalization Aware LLMs for Recommendation [7.407353565043918]
PALRは、ユーザ履歴の振る舞い(クリック、購入、評価など)と大きな言語モデル(LLM)を組み合わせることで、ユーザの好むアイテムを生成することを目的としている。
我々のソリューションは、様々なシーケンシャルなレコメンデーションタスクにおいて最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-12T17:21:33Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。