論文の概要: User Feedback Alignment for LLM-powered Exploration in Large-scale Recommendation Systems
- arxiv url: http://arxiv.org/abs/2504.05522v1
- Date: Mon, 07 Apr 2025 21:44:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:28:07.140367
- Title: User Feedback Alignment for LLM-powered Exploration in Large-scale Recommendation Systems
- Title(参考訳): 大規模レコメンデーションシステムにおけるLLMによる探索のためのユーザフィードバックアライメント
- Authors: Jianling Wang, Yifan Liu, Yinghao Sun, Xuejian Ma, Yueqi Wang, He Ma, Steven Su, Ed H. Chi, Minmin Chen, Lichan Hong, Ningren Han, Haokai Lu,
- Abstract要約: 大規模なレコメンデーションシステムでは,ユーザエクスペリエンスを,確立された嗜好を超えて拡張する行為であるExplorationが課題となっている。
本稿では,LLM推論時間スケーリングと階層的プランニングを組み合わせることで,新規性を損なうことなく,レコメンデーションの妥当性を向上させる手法を提案する。
- 参考スコア(独自算出の注目度): 28.028696159707167
- License:
- Abstract: Exploration, the act of broadening user experiences beyond their established preferences, is challenging in large-scale recommendation systems due to feedback loops and limited signals on user exploration patterns. Large Language Models (LLMs) offer potential by leveraging their world knowledge to recommend novel content outside these loops. A key challenge is aligning LLMs with user preferences while preserving their knowledge and reasoning. While using LLMs to plan for the next novel user interest, this paper introduces a novel approach combining hierarchical planning with LLM inference-time scaling to improve recommendation relevancy without compromising novelty. We decouple novelty and user-alignment, training separate LLMs for each objective. We then scale up the novelty-focused LLM's inference and select the best-of-n predictions using the user-aligned LLM. Live experiments demonstrate efficacy, showing significant gains in both user satisfaction (measured by watch activity and active user counts) and exploration diversity.
- Abstract(参考訳): ユーザエクスペリエンスを確立された嗜好を超えて拡大する行為であるExplorationは,フィードバックループやユーザ探索パターンの制限による大規模レコメンデーションシステムにおいて,課題となっている。
LLM(Large Language Models)は、世界的知識を活用して、これらのループ以外の新しいコンテンツを推奨する可能性を提供する。
重要な課題は、LLMを知識と推論を維持しながら、ユーザの好みに合わせることです。
そこで本研究では,LLMを新たなユーザ関心を喚起するために利用しながら,階層的計画とLLM推論時間スケーリングを組み合わせることによって,新規性を損なうことなく,レコメンデーション関連性を改善する手法を提案する。
我々は、新規性とユーザアライメントを分離し、それぞれの目的のために別々のLCMを訓練する。
次に、新規性に着目したLLMの推測をスケールアップし、ユーザ整列 LLM を用いて最良の n 予測を選択する。
ライブ実験は有効性を示し、ユーザ満足度(監視活動とアクティブユーザ数によって測定される)と探索多様性の両方に有意な効果を示す。
関連論文リスト
- From Selection to Generation: A Survey of LLM-based Active Learning [153.8110509961261]
大きな言語モデル(LLM)は、全く新しいデータインスタンスを生成し、よりコスト効率の良いアノテーションを提供するために使われています。
本調査は,LSMに基づくAL手法の直感的な理解を目指して,研究者や実践者の最新のリソースとして機能することを目的としている。
論文 参考訳(メタデータ) (2025-02-17T12:58:17Z) - Real-Time Personalization for LLM-based Recommendation with Customized In-Context Learning [57.28766250993726]
この研究は、モデル更新なしに動的なユーザ関心に適応することを検討する。
既存のLarge Language Model (LLM)ベースのレコメンダは、レコメンデーションチューニング中にコンテキスト内学習能力を失うことが多い。
本稿では,レコメンデーション固有のインコンテキスト学習をリアルタイムレコメンデーションにカスタマイズするRecICLを提案する。
論文 参考訳(メタデータ) (2024-10-30T15:48:36Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - HLLM: Enhancing Sequential Recommendations via Hierarchical Large Language Models for Item and User Modeling [21.495443162191332]
大規模言語モデル(LLM)は様々な分野で顕著な成功を収めており、いくつかの研究がレコメンデーションシステムにおいてその可能性を探求している。
逐次レコメンデーションシステムを強化するために,新しい階層型大規模言語モデル (HLLM) アーキテクチャを提案する。
HLLMは,項目特徴抽出とユーザ関心モデリングの両方に 7B パラメータを利用する構成で,優れたスケーラビリティを実現している。
論文 参考訳(メタデータ) (2024-09-19T13:03:07Z) - Incorporate LLMs with Influential Recommender System [34.5820082133773]
プロアクティブレコメンデーションシステムは、ターゲットアイテムに対するユーザの関心を導くために、一連のアイテムを推奨します。
既存のメソッドは、ユーザが楽しむであろうアイテムで構成された一貫性のある影響パスを構築するのに苦労しています。
LLM-based Influence Path Planning (LLM-IPP) という新しいアプローチを導入する。
提案手法は,連続したレコメンデーションの一貫性を維持し,推奨項目のユーザ受け入れ性を高める。
論文 参考訳(メタデータ) (2024-09-07T13:41:37Z) - LLMs for User Interest Exploration in Large-scale Recommendation Systems [16.954465544444766]
従来のレコメンデーションシステムは、過去のユーザとイテムのインタラクションから学び、強化することで、強いフィードバックループを受ける。
本稿では,Large Language Models(LLM)と古典的レコメンデーションモデルを組み合わせたハイブリッド階層型フレームワークを提案する。
数十億のユーザを対象とする産業規模の商用プラットフォーム上で,このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-05-25T21:57:36Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - User-LLM: Efficient LLM Contextualization with User Embeddings [23.226164112909643]
User-LLMは、ユーザ埋め込みを利用して、大きな言語モデルとユーザ履歴の相互作用を直接コンテキスト化する新しいフレームワークである。
提案手法では,ユーザタイムラインを直接埋め込みとして表現することで,最大78.1倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-02-21T08:03:27Z) - Large Language Models for Intent-Driven Session Recommendations [34.64421003286209]
大規模言語モデル(LLM)の高度な推論機能を活用した新しいISR手法を提案する。
本稿では,プロンプトを反復的に自己表現し,調整するイノベーティブなプロンプト最適化機構を提案する。
この新たなパラダイムは、LLMに対して、さまざまなユーザ意図をセマンティックレベルで識別する権限を与え、より正確で解釈可能なセッションレコメンデーションをもたらす。
論文 参考訳(メタデータ) (2023-12-07T02:25:14Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - How Can Recommender Systems Benefit from Large Language Models: A Survey [82.06729592294322]
大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
論文 参考訳(メタデータ) (2023-06-09T11:31:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。