論文の概要: Large Language Models are Zero-Shot Rankers for Recommender Systems
- arxiv url: http://arxiv.org/abs/2305.08845v2
- Date: Wed, 24 Jan 2024 04:41:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 17:52:50.417773
- Title: Large Language Models are Zero-Shot Rankers for Recommender Systems
- Title(参考訳): 大型言語モデルはレコメンダシステムのためのゼロショットランカである
- Authors: Yupeng Hou, Junjie Zhang, Zihan Lin, Hongyu Lu, Ruobing Xie, Julian
McAuley, Wayne Xin Zhao
- Abstract要約: 本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力を検討することを目的とする。
LLMにはゼロショットランキング能力があるが、歴史的相互作用の順序を理解するのに苦労していることを示す。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和可能であることを実証する。
- 参考スコア(独自算出の注目度): 76.02500186203929
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, large language models (LLMs) (e.g., GPT-4) have demonstrated
impressive general-purpose task-solving abilities, including the potential to
approach recommendation tasks. Along this line of research, this work aims to
investigate the capacity of LLMs that act as the ranking model for recommender
systems. We first formalize the recommendation problem as a conditional ranking
task, considering sequential interaction histories as conditions and the items
retrieved by other candidate generation models as candidates. To solve the
ranking task by LLMs, we carefully design the prompting template and conduct
extensive experiments on two widely-used datasets. We show that LLMs have
promising zero-shot ranking abilities but (1) struggle to perceive the order of
historical interactions, and (2) can be biased by popularity or item positions
in the prompts. We demonstrate that these issues can be alleviated using
specially designed prompting and bootstrapping strategies. Equipped with these
insights, zero-shot LLMs can even challenge conventional recommendation models
when ranking candidates are retrieved by multiple candidate generators. The
code and processed datasets are available at
https://github.com/RUCAIBox/LLMRank.
- Abstract(参考訳): 近年,大規模言語モデル (LLM) (例えば GPT-4) は,推薦タスクにアプローチする可能性を含む,汎用的なタスク解決能力を示すものとなっている。
本研究は,レコメンダシステムのランキングモデルとして機能するllmの能力について検討することを目的としている。
まず,提案課題を条件付きランキングタスクとして定式化し,逐次的相互作用履歴を条件として,他の候補生成モデルで検索した項目を候補として検討する。
LLMによるランキング課題を解決するため,プロンプトテンプレートを慎重に設計し,広く使われている2つのデータセットに対して広範な実験を行う。
LLMにはゼロショットランキング能力があるが,(1)歴史的相互作用の順序を認識できないこと,(2)プロンプトにおける人気や項目位置に偏りがあることが示される。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和できることを示す。
これらの洞察を備えたゼロショットllmは、複数の候補生成器によって候補をランク付けする際に、従来のレコメンデーションモデルに挑戦することもできる。
コードと処理されたデータセットはhttps://github.com/RUCAIBox/LLMRank.comで入手できる。
関連論文リスト
- Beyond Utility: Evaluating LLM as Recommender [47.97889161958022]
4つの新しい評価次元を探索し,多次元評価フレームワークを提案する。
新しい評価基準には、履歴長感度、候補位置バイアス、生成関連性能、4)幻覚がある。
この多次元評価フレームワークを従来の側面とともに 7 つの LLM ベースのレコメンデータの性能を評価する。
論文 参考訳(メタデータ) (2024-11-01T03:09:28Z) - Keyword-driven Retrieval-Augmented Large Language Models for Cold-start User Recommendations [5.374800961359305]
コールドスタートユーザレストランレコメンデーションの問題に対処するフレームワークであるKALM4Recを紹介する。
KALM4Recは、候補検索とLLMベースの候補の再ランクの2つの主要な段階で動作する。
Yelpのレストランデータセットを用いて、英語圏の3都市からのユーザレビューを行い、提案したフレームワークが推奨品質を大幅に改善することを示す。
論文 参考訳(メタデータ) (2024-05-30T02:00:03Z) - Can Small Language Models be Good Reasoners for Sequential Recommendation? [34.098264212413305]
SLIM (Step-by-step knowLedge dIstillation fraMework for recommendation)
より大規模な教師モデルのためのユーザ行動系列に基づくCoTプロンプトを導入する。
教師モデルによって生成される理論的根拠をラベルとして利用し、下流のより小さな学生モデルを蒸留する。
論文 参考訳(メタデータ) (2024-03-07T06:49:37Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [43.270424225285105]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - PALR: Personalization Aware LLMs for Recommendation [7.407353565043918]
PALRは、ユーザ履歴の振る舞い(クリック、購入、評価など)と大きな言語モデル(LLM)を組み合わせることで、ユーザの好むアイテムを生成することを目的としている。
我々のソリューションは、様々なシーケンシャルなレコメンデーションタスクにおいて最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-12T17:21:33Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - Is ChatGPT Good at Search? Investigating Large Language Models as
Re-Ranking Agents [56.104476412839944]
大規模言語モデル(LLM)は、様々な言語関連タスクにまたがる顕著なゼロショットの一般化を実証している。
本稿では、情報検索(IR)における関連性ランキングのためのジェネレーティブLLMについて検討する。
LLMのデータ汚染に関する懸念に対処するため,我々はNovereEvalという新しいテストセットを収集した。
実世界のアプリケーションの効率を向上させるため、ChatGPTのランキング能力を小さな特殊モデルに蒸留する可能性を探る。
論文 参考訳(メタデータ) (2023-04-19T10:16:03Z) - Zero-Shot Next-Item Recommendation using Large Pretrained Language
Models [16.14557830316297]
我々は,Zero-Shot Next-Item Recommendation (NIR) と呼ばれるプロンプト戦略を提案する。
我々の戦略は、GPT-3がユーザの好みを捉えたサブタスクを運ぶための3段階のプロンプトを取り入れている。
The proposed approach using GPT-3 on MovieLens 100K dataset and show that it achieved to strong zero-shot performance。
論文 参考訳(メタデータ) (2023-04-06T15:35:11Z) - AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators [98.11286353828525]
GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
本稿では,2段階のアプローチを取り入れたAnnoLLMを提案する。
我々はAnnoLLMを用いた対話型情報検索データセットを構築した。
論文 参考訳(メタデータ) (2023-03-29T17:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。