論文の概要: Rethinking LLM-Based Recommendations: A Query Generation-Based, Training-Free Approach
- arxiv url: http://arxiv.org/abs/2504.11889v1
- Date: Wed, 16 Apr 2025 09:17:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:40:22.428127
- Title: Rethinking LLM-Based Recommendations: A Query Generation-Based, Training-Free Approach
- Title(参考訳): LLMに基づくリコメンデーションの再考:クエリ生成に基づく、トレーニング不要なアプローチ
- Authors: Donghee Han, Hwanjun Song, Mun Yong Yi,
- Abstract要約: 本稿では,候補プール全体から関連項目を検索するパーソナライズされたクエリを生成するクエリ・ツー・レコメンデーション手法を提案する。
この方法は、追加のトレーニングをすることなく、IDベースのレコメンデーションシステムに統合することができる。
3つのデータセットの実験では、最大で57%改善され、平均で31%向上した。
- 参考スコア(独自算出の注目度): 16.482830042945775
- License:
- Abstract: Existing large language model LLM-based recommendation methods face several challenges, including inefficiency in handling large candidate pools, sensitivity to item order within prompts ("lost in the middle" phenomenon) poor scalability, and unrealistic evaluation due to random negative sampling. To address these issues, we propose a Query-to-Recommendation approach that leverages LLMs to generate personalized queries for retrieving relevant items from the entire candidate pool, eliminating the need for candidate pre-selection. This method can be integrated into an ID-based recommendation system without additional training, enhances recommendation performance and diversity through LLMs' world knowledge, and performs well even for less popular item groups. Experiments on three datasets show up to 57 percent improvement, with an average gain of 31 percent, demonstrating strong zero-shot performance and further gains when ensembled with existing models.
- Abstract(参考訳): 既存の大規模言語モデル LLM ベースのレコメンデーション手法では、大きな候補プールを扱う非効率性、プロンプト内のアイテムオーダーに対する感度の低下("Lost in the middle" 現象)、スケーラビリティの低下、ランダムな負サンプリングによる非現実的な評価など、いくつかの課題に直面している。
これらの問題に対処するために,LLMを利用して候補プール全体から関連項目を検索するパーソナライズされたクエリを生成するクエリ・ツー・レコメンデーション手法を提案する。
この方法は、追加のトレーニングを伴わずにIDベースのレコメンデーションシステムに統合することができ、LLMの世界知識を通じてレコメンデーション性能と多様性を高め、あまり人気のないアイテムグループでもうまく機能する。
3つのデータセットの実験では、最大で57%改善され、平均31%向上し、ゼロショットのパフォーマンスが向上し、既存のモデルと組み合わされた場合にはさらに向上した。
関連論文リスト
- Self-Calibrated Listwise Reranking with Large Language Models [137.6557607279876]
大規模言語モデル (LLM) はシーケンシャル・ツー・シーケンス・アプローチによってタスクのランク付けに使用されている。
この階調のパラダイムは、より大きな候補集合を反復的に扱うためにスライディングウインドウ戦略を必要とする。
そこで本稿では,LLMを用いた自己校正リストのランク付け手法を提案する。
論文 参考訳(メタデータ) (2024-11-07T10:31:31Z) - Enhancing ID-based Recommendation with Large Language Models [47.14302346325941]
我々は"LLM for ID-based Recommendation"(LLM4IDRec)と呼ばれる先駆的なアプローチを導入する。
この革新的なアプローチは、IDデータにのみ依存しながらLLMの機能を統合することで、以前のテキストデータへの依存から逸脱する。
LLM4IDRecアプローチの有効性を3つの広く利用されているデータセットを用いて評価した。
論文 参考訳(メタデータ) (2024-11-04T12:43:12Z) - STAR: A Simple Training-free Approach for Recommendations using Large Language Models [36.18841135511487]
現在の最先端の手法は、最適な結果を得るために微調整された大規模言語モデル(LLM)に依存している。
LLMを利用するフレームワークを提案し、微調整を必要とせずに様々なレコメンデーションタスクに適用できる。
The method achieves Hits@10 performance of +23.8% on Beauty, +37.5% on Toys & Games, and -1.8% on Sports & Outdoors。
論文 参考訳(メタデータ) (2024-10-21T19:34:40Z) - On Speeding Up Language Model Evaluation [48.51924035873411]
我々はこの空間を探索するために$textitadaptive$アプローチを提案する。
我々は、マルチアームの包帯に頼り、次の(メソッド、バリデーションサンプル)ペアを順次識別して評価する。
典型的資源の5~15%のみを用いて,トップパフォーマンスの手法を同定できることを示す。
論文 参考訳(メタデータ) (2024-07-08T17:48:42Z) - Efficient and Responsible Adaptation of Large Language Models for Robust Top-k Recommendations [11.004673022505566]
何百万というユーザの長いクエリは、大規模言語モデルのパフォーマンスを低下させ、推奨することができる。
本稿では,大規模言語モデルと従来のレコメンデーションシステムの両方の機能を利用するハイブリッドタスク割り当てフレームワークを提案する。
実世界の3つのデータセットによる結果から,弱い利用者の減少と,サブ人口に対するRSのロバスト性の向上が示唆された。
論文 参考訳(メタデータ) (2024-05-01T19:11:47Z) - How to Train Data-Efficient LLMs [56.41105687693619]
事前学習言語モデル(LLM)に対するデータ効率のアプローチについて検討する。
Ask-LLMと密度サンプリングがそれぞれのカテゴリで最適であることがわかった。
何百もの評価タスクと事前学習作業を含む19個のサンプルを比較したところ,Ask-LLMと密度がそれぞれのカテゴリで最適な方法であることが判明した。
論文 参考訳(メタデータ) (2024-02-15T02:27:57Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [43.270424225285105]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z) - Large Language Models are Effective Text Rankers with Pairwise Ranking Prompting [65.00288634420812]
Pairwise Ranking Prompting (PRP)は、大規模言語モデル(LLM)の負担を大幅に軽減する手法である。
本研究は,中等級のオープンソースLCMを用いた標準ベンチマークにおいて,最先端のランク付け性能を達成した文献としては初めてである。
論文 参考訳(メタデータ) (2023-06-30T11:32:25Z) - PALR: Personalization Aware LLMs for Recommendation [7.407353565043918]
PALRは、ユーザ履歴の振る舞い(クリック、購入、評価など)と大きな言語モデル(LLM)を組み合わせることで、ユーザの好むアイテムを生成することを目的としている。
我々のソリューションは、様々なシーケンシャルなレコメンデーションタスクにおいて最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-12T17:21:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。