論文の概要: Large Language Models are Zero-Shot Rankers for Recommender Systems
- arxiv url: http://arxiv.org/abs/2305.08845v1
- Date: Mon, 15 May 2023 17:57:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 13:17:34.149795
- Title: Large Language Models are Zero-Shot Rankers for Recommender Systems
- Title(参考訳): 大型言語モデルはレコメンダシステムのためのゼロショットランカである
- Authors: Yupeng Hou, Junjie Zhang, Zihan Lin, Hongyu Lu, Ruobing Xie, Julian
McAuley, Wayne Xin Zhao
- Abstract要約: 本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力について検討する。
LLMには、従来のレコメンデーションモデルよりも競争力のあるゼロショットランキング能力があることを示す。
- 参考スコア(独自算出の注目度): 39.01200182259706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, large language models (LLMs) (e.g. GPT-4) have demonstrated
impressive general-purpose task-solving abilities, including the potential to
approach recommendation tasks. Along this line of research, this work aims to
investigate the capacity of LLMs that act as the ranking model for recommender
systems. To conduct our empirical study, we first formalize the recommendation
problem as a conditional ranking task, considering sequential interaction
histories as conditions and the items retrieved by the candidate generation
model as candidates. We adopt a specific prompting approach to solving the
ranking task by LLMs: we carefully design the prompting template by including
the sequential interaction history, the candidate items, and the ranking
instruction. We conduct extensive experiments on two widely-used datasets for
recommender systems and derive several key findings for the use of LLMs in
recommender systems. We show that LLMs have promising zero-shot ranking
abilities, even competitive to or better than conventional recommendation
models on candidates retrieved by multiple candidate generators. We also
demonstrate that LLMs struggle to perceive the order of historical interactions
and can be affected by biases like position bias, while these issues can be
alleviated via specially designed prompting and bootstrapping strategies. The
code to reproduce this work is available at
https://github.com/RUCAIBox/LLMRank.
- Abstract(参考訳): 近年,大規模言語モデル (LLM) (GPT-4など) は,推薦タスクにアプローチする可能性を含む,汎用的なタスク解決能力に優れることを示した。
本研究は,レコメンダシステムのランキングモデルとして機能するllmの能力について検討することを目的としている。
本研究では,まず条件付きランキングタスクとして推薦問題を定式化し,逐次的インタラクション履歴を条件として,候補生成モデルで検索した項目を候補として検討する。
逐次的なインタラクション履歴,候補項目,ランキング指示を含むことによって,プロンプトテンプレートを慎重に設計する。
我々は、リコメンデータシステムに広く利用されている2つのデータセットについて広範な実験を行い、レコメンデータシステムにおけるLLMの使用に関するいくつかの重要な知見を導き出した。
複数の候補ジェネレータで検索した候補に対する従来の推薦モデルと競合するか、それ以上の競争力を持つLLMがゼロショットランキング能力を持つことを示す。
また,llmは歴史的相互作用の順序を知覚するのに苦労し,位置バイアスのようなバイアスの影響も受けるが,これらの問題は特別な設計のプロンプトとブートストラップ戦略によって軽減できることを示した。
この作業を再現するコードはhttps://github.com/RUCAIBox/LLMRank.comで公開されている。
関連論文リスト
- Beyond Utility: Evaluating LLM as Recommender [47.97889161958022]
4つの新しい評価次元を探索し,多次元評価フレームワークを提案する。
新しい評価基準には、履歴長感度、候補位置バイアス、生成関連性能、4)幻覚がある。
この多次元評価フレームワークを従来の側面とともに 7 つの LLM ベースのレコメンデータの性能を評価する。
論文 参考訳(メタデータ) (2024-11-01T03:09:28Z) - Keyword-driven Retrieval-Augmented Large Language Models for Cold-start User Recommendations [5.374800961359305]
コールドスタートユーザレストランレコメンデーションの問題に対処するフレームワークであるKALM4Recを紹介する。
KALM4Recは、候補検索とLLMベースの候補の再ランクの2つの主要な段階で動作する。
Yelpのレストランデータセットを用いて、英語圏の3都市からのユーザレビューを行い、提案したフレームワークが推奨品質を大幅に改善することを示す。
論文 参考訳(メタデータ) (2024-05-30T02:00:03Z) - Can Small Language Models be Good Reasoners for Sequential Recommendation? [34.098264212413305]
SLIM (Step-by-step knowLedge dIstillation fraMework for recommendation)
より大規模な教師モデルのためのユーザ行動系列に基づくCoTプロンプトを導入する。
教師モデルによって生成される理論的根拠をラベルとして利用し、下流のより小さな学生モデルを蒸留する。
論文 参考訳(メタデータ) (2024-03-07T06:49:37Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [43.270424225285105]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - PALR: Personalization Aware LLMs for Recommendation [7.407353565043918]
PALRは、ユーザ履歴の振る舞い(クリック、購入、評価など)と大きな言語モデル(LLM)を組み合わせることで、ユーザの好むアイテムを生成することを目的としている。
我々のソリューションは、様々なシーケンシャルなレコメンデーションタスクにおいて最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-12T17:21:33Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - Is ChatGPT Good at Search? Investigating Large Language Models as
Re-Ranking Agents [56.104476412839944]
大規模言語モデル(LLM)は、様々な言語関連タスクにまたがる顕著なゼロショットの一般化を実証している。
本稿では、情報検索(IR)における関連性ランキングのためのジェネレーティブLLMについて検討する。
LLMのデータ汚染に関する懸念に対処するため,我々はNovereEvalという新しいテストセットを収集した。
実世界のアプリケーションの効率を向上させるため、ChatGPTのランキング能力を小さな特殊モデルに蒸留する可能性を探る。
論文 参考訳(メタデータ) (2023-04-19T10:16:03Z) - Zero-Shot Next-Item Recommendation using Large Pretrained Language
Models [16.14557830316297]
我々は,Zero-Shot Next-Item Recommendation (NIR) と呼ばれるプロンプト戦略を提案する。
我々の戦略は、GPT-3がユーザの好みを捉えたサブタスクを運ぶための3段階のプロンプトを取り入れている。
The proposed approach using GPT-3 on MovieLens 100K dataset and show that it achieved to strong zero-shot performance。
論文 参考訳(メタデータ) (2023-04-06T15:35:11Z) - AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators [98.11286353828525]
GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
本稿では,2段階のアプローチを取り入れたAnnoLLMを提案する。
我々はAnnoLLMを用いた対話型情報検索データセットを構築した。
論文 参考訳(メタデータ) (2023-03-29T17:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。