論文の概要: Selecting User Histories to Generate LLM Users for Cold-Start Item Recommendation
- arxiv url: http://arxiv.org/abs/2511.21989v1
- Date: Thu, 27 Nov 2025 00:17:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.3348
- Title: Selecting User Histories to Generate LLM Users for Cold-Start Item Recommendation
- Title(参考訳): コールドスタートアイテムレコメンデーションのためのLCMユーザ生成のためのユーザ履歴の選択
- Authors: Nachiket Subbaraman, Jaskinder Sarai, Aniruddh Nath, Lichan Hong, Lukasz Heldt, Li Wei, Zhe Zhao,
- Abstract要約: 我々は、拡張のためのユーザを選択するためのポリシーを訓練する強化学習フレームワークを開発する。
Amazon Product Reviewデータセットの実験では、コールドスタートアイテムリコールが大幅に向上している。
- 参考スコア(独自算出の注目度): 7.689185348031334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable capabilities in reasoning, generalization, and simulating human-like behavior across a wide range of tasks. These strengths present new opportunities to enhance traditional recommendation systems (RS), especially in the cold-start item scenario where newly introduced items lack interactions. Existing works have used LLMs to address cold-start issues in traditional RS through data augmentation, but they have limitations. One recent work directly addresses this issue by prompting LLMs to generate augmented interaction data between randomly sampled users and cold-start items. Then, they train the traditional RS with augmented data, incorporating collaborative signals for cold-start items. Although they use LLMs to provide cold-start items with feedback, they use partial user histories, which does not allow the LLM to fully emulate the user. Furthermore, randomly selecting users is not optimal for augmentation. To address these challenges, we leverage the LLM as a user and develop a reinforcement learning (RL) framework that trains a policy to select users for augmentation, optimizing for cold-start item performance after augmented training. The policy model learns to select users for cold-start item data augmentation based on their behavioral features and histories. To optimize user selection for cold-start item performance, we employ a policy gradient method that updates the policy in the direction of actions that lead to high rewards. Experiments on Amazon Product Review datasets show substantial gains in cold-start item recall, demonstrating the effectiveness of our method as a scalable, serving-efficient augmentation strategy for modern RS.
- Abstract(参考訳): 大規模言語モデル(LLM)は、多岐にわたるヒューマンライクな振る舞いの推論、一般化、シミュレートにおいて顕著な能力を示した。
これらの強みは従来のレコメンデーションシステム(RS)を強化する新たな機会を提供する。
既存の作業では、データ拡張を通じて従来のRSのコールドスタート問題に対処するためにLLMを使用してきたが、制限がある。
ある最近の研究は、ランダムにサンプリングされたユーザとコールドスタートアイテム間の追加的なインタラクションデータを生成することをLLMに促すことで、この問題に直接対処している。
すると、彼らは従来のRSを強化データで訓練し、コールドスタートアイテムの協調シグナルを取り入れた。
コールドスタートアイテムにフィードバックを提供するためにLLMを使用するが、部分的なユーザ履歴を使用するため、LLMがユーザを完全にエミュレートすることができない。
さらに、ユーザをランダムに選択することは、拡張に最適ではない。
これらの課題に対処するため、LLMをユーザとして活用し、強化学習(RL)フレームワークを開発した。
ポリシーモデルは、行動の特徴や履歴に基づいて、コールドスタートアイテムデータ拡張のユーザを選択することを学習する。
コールドスタートアイテムのパフォーマンス向上のためのユーザ選択を最適化するために,アクションの方向にポリシーを更新し,高い報酬をもたらすポリシ勾配法を用いる。
Amazon Product Reviewデータセットの実験では、コールドスタートアイテムリコールが大幅に向上し、現代のRSのためのスケーラブルでサービス効率の良い拡張戦略としての我々の方法の有効性が実証された。
関連論文リスト
- DeepRec: Towards a Deep Dive Into the Item Space with Large Language Model Based Recommendation [83.21140655248624]
大型言語モデル (LLM) はレコメンダシステム (RS) に導入された。
本稿では, LLM と TRM の自律的マルチターンインタラクションを実現する新しい RS である DeepRec を提案する。
公開データセットの実験では、DeepRecは従来のものとLLMベースのベースラインの両方で大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2025-05-22T15:49:38Z) - FSPO: Few-Shot Preference Optimization of Synthetic Preference Data in LLMs Elicits Effective Personalization to Real Users [111.56469697145519]
メタ学習問題として報酬モデルを再設計するFew-Shot Preference Optimizationを提案する。
このフレームワークでは、LDMはそのユーザからいくつかのラベル付けされた好みを通じてユーザへの迅速な適応を学び、パーソナライズされた報酬関数を構築する。
公開されているLLMを用いて100万以上の合成パーソナライズされた好みを生成する。
本研究は,映画レビュー,教育背景に基づく教育適応,一般質問応答の3分野を対象に,最大1,500人の総合ユーザを対象に,パーソナライズされたオープンエンド世代に対するFSPOの評価を行った。
論文 参考訳(メタデータ) (2025-02-26T17:08:46Z) - GenUP: Generative User Profilers as In-Context Learners for Next POI Recommender Systems [8.789624590579903]
POI(Point-of-Interest)レコメンデーションシステムは、透明性、解釈可能性、精査性に欠けることが多い。
既存の手法は、他のユーザーからの類似の軌跡を活用することで、この問題に対処することが多い。
本稿では,LBSNの大規模チェックインから自然言語(NL)ユーザプロファイルを生成する手法を提案する。
論文 参考訳(メタデータ) (2024-10-28T00:39:22Z) - LLM-ESR: Large Language Models Enhancement for Long-tailed Sequential Recommendation [58.04939553630209]
現実世界のシステムでは、ほとんどのユーザーはほんの一握りのアイテムしか扱わないが、ほとんどのアイテムは滅多に消費されない。
これら2つの課題は、ロングテールユーザーとロングテールアイテムの課題として知られ、しばしば既存のシークエンシャルレコメンデーションシステムに困難をもたらす。
本稿では,これらの課題に対処するため,Large Language Models Enhancement framework for Sequential Recommendation (LLM-ESR)を提案する。
論文 参考訳(メタデータ) (2024-05-31T07:24:42Z) - Large Language Models meet Collaborative Filtering: An Efficient All-round LLM-based Recommender System [19.8986219047121]
協調フィルタリング推薦システム (CF-RecSys) は, ソーシャルメディアやeコマースプラットフォーム上でのユーザエクスペリエンス向上に成功している。
近年の戦略は、事前訓練されたモダリティエンコーダと大規模言語モデルに基づくユーザ/イテムのモダリティ情報の活用に重点を置いている。
コールドシナリオだけでなく、ウォームシナリオにおいても優れたA-LLMRecと呼ばれる全周LCMベースのレコメンダシステムを提案する。
論文 参考訳(メタデータ) (2024-04-17T13:03:07Z) - Large Language Model Simulator for Cold-Start Recommendation [45.34030399042562]
コールドアイテムはコンテンツ機能のみに依存し、レコメンデーションパフォーマンスを制限し、ユーザーエクスペリエンスと収益に影響を与える。
現在のモデルは、コンテンツ機能から合成行動埋め込みを生成するが、主要な問題、すなわち過去の行動データがないことに対処できない。
寒冷品のユーザインタラクションをシミュレートするために,大規模言語モデルを活用する LLM Simulator フレームワークを導入する。
論文 参考訳(メタデータ) (2024-02-14T13:45:06Z) - Learning to Learn a Cold-start Sequential Recommender [70.5692886883067]
コールドスタート勧告は、現代のオンラインアプリケーションにおいて緊急の問題である。
メタ学習に基づくコールドスタートシーケンシャルレコメンデーションフレームワークMetaCSRを提案する。
MetaCSRは、通常のユーザの行動から共通のパターンを学ぶ能力を持っている。
論文 参考訳(メタデータ) (2021-10-18T08:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。