論文の概要: Large Language Models as Narrative-Driven Recommenders
- arxiv url: http://arxiv.org/abs/2410.13604v1
- Date: Thu, 17 Oct 2024 14:39:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:21:22.167683
- Title: Large Language Models as Narrative-Driven Recommenders
- Title(参考訳): ナラティブ駆動型レコメンダとしての大規模言語モデル
- Authors: Lukas Eberhard, Thorsten Ruprechter, Denis Helic,
- Abstract要約: 大規模言語モデル(LLM)は、一般的な自然言語クエリの処理に優れていることが示されている。
映画レコメンデーション設定において,38個のオープンソース LLM とクローズドソース LLM のパフォーマンスを比較した。
以上の結果から,LLMがコンテキストに関連のある映画レコメンデーションを生成できることが示唆された。
- 参考スコア(独自算出の注目度): 0.051205673783866146
- License:
- Abstract: Narrative-driven recommenders aim to provide personalized suggestions for user requests expressed in free-form text such as "I want to watch a thriller with a mind-bending story, like Shutter Island." Although large language models (LLMs) have been shown to excel in processing general natural language queries, their effectiveness for handling such recommendation requests remains relatively unexplored. To close this gap, we compare the performance of 38 open- and closed-source LLMs of various sizes, such as LLama 3.2 and GPT-4o, in a movie recommendation setting. For this, we utilize a gold-standard, crowdworker-annotated dataset of posts from reddit's movie suggestion community and employ various prompting strategies, including zero-shot, identity, and few-shot prompting. Our findings demonstrate the ability of LLMs to generate contextually relevant movie recommendations, significantly outperforming other state-of-the-art approaches, such as doc2vec. While we find that closed-source and large-parameterized models generally perform best, medium-sized open-source models remain competitive, being only slightly outperformed by their more computationally expensive counterparts. Furthermore, we observe no significant differences across prompting strategies for most models, underscoring the effectiveness of simple approaches such as zero-shot prompting for narrative-driven recommendations. Overall, this work offers valuable insights for recommender system researchers as well as practitioners aiming to integrate LLMs into real-world recommendation tools.
- Abstract(参考訳): ナラティブ駆動の推薦者は、自由形式のテキストで表現されたユーザーリクエストに対してパーソナライズされた提案を提供することを目標としている。
大規模言語モデル(LLM)は、一般的な自然言語クエリの処理において優れていることが示されているが、そのようなレコメンデーション要求を処理するための有効性は、まだ明らかになっていない。
このギャップを埋めるために,映画レコメンデーション設定において,LLama 3.2 や GPT-4o など,様々なサイズのオープンソース LLM とクローズドソース LLM のパフォーマンスを比較した。
そこで,本研究では,レディットの映画提案コミュニティから,ゴールドスタンダードでクラウドワーカーによるコメント付き投稿のデータセットを利用し,ゼロショット,アイデンティティ,少ショットプロンプトなど,さまざまなプロンプト戦略を採用する。
本研究は,ドク2ベックなど,他の最先端のアプローチよりも優れた,文脈的に関係のある映画レコメンデーションを生成するLLMの能力を示すものである。
クローズドソースと大規模パラメータ化モデルは一般的に最高の性能を発揮するが、中規模のオープンソースモデルは競争力を維持しており、計算的に高価なモデルではわずかに上回っている。
さらに,物語駆動型レコメンデーションのためのゼロショットプロンプトのような単純なアプローチの有効性を強調し,ほとんどのモデルに対するプロンプト戦略に有意な差は見られなかった。
全体として、この研究は、レコメンデーションシステム研究者だけでなく、LLMを現実世界のレコメンデーションツールに統合することを目指す実践者にも貴重な洞察を提供する。
関連論文リスト
- GOT4Rec: Graph of Thoughts for Sequential Recommendation [25.03964361177406]
GOT4Recは、思考のグラフ(GoT)のプロンプト戦略を利用するシーケンシャルレコメンデーション手法である。
我々は,ユーザ履歴シーケンスにおいて,短期的関心事,長期的関心事,他ユーザからの協力的情報という3つの重要な情報を識別し,活用する。
実世界のデータセットに対する大規模な実験は、GOT4Recの有効性を示し、既存の最先端ベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2024-11-22T13:24:01Z) - STAR: A Simple Training-free Approach for Recommendations using Large Language Models [36.18841135511487]
大規模言語モデル(LLM)の最近の進歩は、レコメンデーションシステム(RecSys)タスクに有望な新しいアプローチを提供する。
LLMを利用するフレームワークを提案し、微調整を必要とせずに様々なレコメンデーションタスクに適用できる。
本手法はHits@10のパフォーマンスが23.8%,Toys and Gamesが37.5%,Sports and Outdoorsが1.8%であった。
論文 参考訳(メタデータ) (2024-10-21T19:34:40Z) - Keyword-driven Retrieval-Augmented Large Language Models for Cold-start User Recommendations [5.374800961359305]
コールドスタートユーザレストランレコメンデーションの問題に対処するフレームワークであるKALM4Recを紹介する。
KALM4Recは、候補検索とLLMベースの候補の再ランクの2つの主要な段階で動作する。
Yelpのレストランデータセットを用いて、英語圏の3都市からのユーザレビューを行い、提案したフレームワークが推奨品質を大幅に改善することを示す。
論文 参考訳(メタデータ) (2024-05-30T02:00:03Z) - Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
大規模テキストコーパスで事前訓練されたLarge Language Models (LLMs) は、推奨システムを強化するための有望な道を示す。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - CoLLM: Integrating Collaborative Embeddings into Large Language Models for Recommendation [60.2700801392527]
我々は,協調情報をLLMにシームレスに組み込んでレコメンデーションを行う,革新的なLLMRec手法であるCoLLMを紹介する。
CoLLMは、外部の伝統的なモデルを通して協調情報をキャプチャし、LLMの入力トークン埋め込み空間にマッピングする。
大規模な実験により、CoLLMはLLMに協調情報を包括的に統合し、レコメンデーション性能が向上することが確認された。
論文 参考訳(メタデータ) (2023-10-30T12:25:00Z) - LLM-Rec: Personalized Recommendation via Prompting Large Language Models [62.481065357472964]
大きな言語モデル(LLM)は、常識的な知識と推論を活用する能力を示した。
大規模言語モデル(LLM)の最近の進歩は、コモンセンスの知識と推論を活用できることを顕著に示している。
本研究では,パーソナライズされたテキストベースのレコメンデーションを改善するために,テキストエンリッチメントの4つの異なる促進戦略を取り入れた新しいアプローチ LLM-Rec を提案する。
論文 参考訳(メタデータ) (2023-07-24T18:47:38Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。