論文の概要: Large Language Models are Zero-Shot Rankers for Recommender Systems
- arxiv url: http://arxiv.org/abs/2305.08845v2
- Date: Wed, 24 Jan 2024 04:41:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 17:52:50.417773
- Title: Large Language Models are Zero-Shot Rankers for Recommender Systems
- Title(参考訳): 大型言語モデルはレコメンダシステムのためのゼロショットランカである
- Authors: Yupeng Hou, Junjie Zhang, Zihan Lin, Hongyu Lu, Ruobing Xie, Julian
McAuley, Wayne Xin Zhao
- Abstract要約: 本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力を検討することを目的とする。
LLMにはゼロショットランキング能力があるが、歴史的相互作用の順序を理解するのに苦労していることを示す。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和可能であることを実証する。
- 参考スコア(独自算出の注目度): 76.02500186203929
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, large language models (LLMs) (e.g., GPT-4) have demonstrated
impressive general-purpose task-solving abilities, including the potential to
approach recommendation tasks. Along this line of research, this work aims to
investigate the capacity of LLMs that act as the ranking model for recommender
systems. We first formalize the recommendation problem as a conditional ranking
task, considering sequential interaction histories as conditions and the items
retrieved by other candidate generation models as candidates. To solve the
ranking task by LLMs, we carefully design the prompting template and conduct
extensive experiments on two widely-used datasets. We show that LLMs have
promising zero-shot ranking abilities but (1) struggle to perceive the order of
historical interactions, and (2) can be biased by popularity or item positions
in the prompts. We demonstrate that these issues can be alleviated using
specially designed prompting and bootstrapping strategies. Equipped with these
insights, zero-shot LLMs can even challenge conventional recommendation models
when ranking candidates are retrieved by multiple candidate generators. The
code and processed datasets are available at
https://github.com/RUCAIBox/LLMRank.
- Abstract(参考訳): 近年,大規模言語モデル (LLM) (例えば GPT-4) は,推薦タスクにアプローチする可能性を含む,汎用的なタスク解決能力を示すものとなっている。
本研究は,レコメンダシステムのランキングモデルとして機能するllmの能力について検討することを目的としている。
まず,提案課題を条件付きランキングタスクとして定式化し,逐次的相互作用履歴を条件として,他の候補生成モデルで検索した項目を候補として検討する。
LLMによるランキング課題を解決するため,プロンプトテンプレートを慎重に設計し,広く使われている2つのデータセットに対して広範な実験を行う。
LLMにはゼロショットランキング能力があるが,(1)歴史的相互作用の順序を認識できないこと,(2)プロンプトにおける人気や項目位置に偏りがあることが示される。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和できることを示す。
これらの洞察を備えたゼロショットllmは、複数の候補生成器によって候補をランク付けする際に、従来のレコメンデーションモデルに挑戦することもできる。
コードと処理されたデータセットはhttps://github.com/RUCAIBox/LLMRank.comで入手できる。
関連論文リスト
- Can Small Language Models be Good Reasoners for Sequential
Recommendation? [35.380559538263455]
SLIM (Step-by-step knowLedge dIstillation fraMework for recommendation)
より大規模な教師モデルのためのユーザ行動系列に基づくCoTプロンプトを導入する。
教師モデルによって生成される理論的根拠をラベルとして利用し、下流のより小さな学生モデルを蒸留する。
論文 参考訳(メタデータ) (2024-03-07T06:49:37Z) - List-aware Reranking-Truncation Joint Model for Search and
Retrieval-augmented Generation [80.12531449946655]
本稿では,2つのタスクを同時に実行可能なRe rank-Truncation joint model(GenRT)を提案する。
GenRTは、エンコーダ-デコーダアーキテクチャに基づく生成パラダイムによるリランクとトランケーションを統合している。
提案手法は,Web検索および検索拡張LLMにおけるリランクタスクとトラルケーションタスクの両方においてSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-02-05T06:52:53Z) - LiPO: Listwise Preference Optimization through Learning-to-Rank [63.69441506085566]
本稿では,リストワイズ優先最適化(LiPO)フレームワークについて述べる。このフレームワークでは,評価可能な応答のランクリストから,ポリシーをより効率的に学習することができる。
2つの選好アライメントタスクにおいて,LiPO-lambdaがDPOとSLiCよりも明確なマージンで優れていることを示す。
論文 参考訳(メタデータ) (2024-02-02T20:08:10Z) - LlamaRec: Two-Stage Recommendation using Large Language Models for
Ranking [10.671747198171136]
ランキングベースレコメンデーション(LlamaRec)のための大規模言語モデルを用いた2段階フレームワークを提案する。
特に,ユーザインタラクション履歴に基づいて候補を検索するために,小規模なシーケンシャルレコメンデータを用いる。
LlamaRecは、推奨パフォーマンスと効率の両方において、データセットの優れたパフォーマンスを一貫して達成している。
論文 参考訳(メタデータ) (2023-10-25T06:23:48Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential
Behavior Comprehension in Recommendation [44.89764672511655]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z) - A Survey on Large Language Models for Recommendation [80.01023231943205]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - PALR: Personalization Aware LLMs for Recommendation [7.407353565043918]
PALRは、ユーザ履歴の振る舞い(クリック、購入、評価など)と大きな言語モデル(LLM)を組み合わせることで、ユーザの好むアイテムを生成することを目的としている。
我々のソリューションは、様々なシーケンシャルなレコメンデーションタスクにおいて最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-12T17:21:33Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - Is ChatGPT Good at Search? Investigating Large Language Models as
Re-Ranking Agents [56.104476412839944]
大規模言語モデル(LLM)は、様々な言語関連タスクにまたがる顕著なゼロショットの一般化を実証している。
本稿では、情報検索(IR)における関連性ランキングのためのジェネレーティブLLMについて検討する。
LLMのデータ汚染に関する懸念に対処するため,我々はNovereEvalという新しいテストセットを収集した。
実世界のアプリケーションの効率を向上させるため、ChatGPTのランキング能力を小さな特殊モデルに蒸留する可能性を探る。
論文 参考訳(メタデータ) (2023-04-19T10:16:03Z) - Zero-Shot Next-Item Recommendation using Large Pretrained Language
Models [16.14557830316297]
我々は,Zero-Shot Next-Item Recommendation (NIR) と呼ばれるプロンプト戦略を提案する。
我々の戦略は、GPT-3がユーザの好みを捉えたサブタスクを運ぶための3段階のプロンプトを取り入れている。
The proposed approach using GPT-3 on MovieLens 100K dataset and show that it achieved to strong zero-shot performance。
論文 参考訳(メタデータ) (2023-04-06T15:35:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。