論文の概要: Give Users the Wheel: Towards Promptable Recommendation Paradigm
- arxiv url: http://arxiv.org/abs/2602.18929v1
- Date: Sat, 21 Feb 2026 18:41:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.400263
- Title: Give Users the Wheel: Towards Promptable Recommendation Paradigm
- Title(参考訳): 利用者に車輪を与える: 推奨パラダイムの実証に向けて
- Authors: Fuyuan Lyu, Chenglin Luo, Qiyuan Zhang, Yupeng Hou, Haolun Wu, Xing Tang, Xue Liu, Jin L. C. Guo, Xiuqiang He,
- Abstract要約: Decoupled Promptable Sequential Recommendation (DPR)は、従来のシーケンシャルバックボーンにPromptable Recommendationをサポートするためのモデルに依存しないフレームワークである。
DPRは、潜在ユーザ表現を検索空間内で直接変調する。
プロンプト誘導タスクにおいて、最先端のベースラインを著しく上回る。
- 参考スコア(独自算出の注目度): 21.39017335979666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional sequential recommendation models have achieved remarkable success in mining implicit behavioral patterns. However, these architectures remain structurally blind to explicit user intent: they struggle to adapt when a user's immediate goal (e.g., expressed via a natural language prompt) deviates from their historical habits. While Large Language Models (LLMs) offer the semantic reasoning to interpret such intent, existing integration paradigms force a dilemma: LLM-as-a-recommender paradigm sacrifices the efficiency and collaborative precision of ID-based retrieval, while Reranking methods are inherently bottlenecked by the recall capabilities of the underlying model. In this paper, we propose Decoupled Promptable Sequential Recommendation (DPR), a model-agnostic framework that empowers conventional sequential backbones to natively support Promptable Recommendation, the ability to dynamically steer the retrieval process using natural language without abandoning collaborative signals. DPR modulates the latent user representation directly within the retrieval space. To achieve this, we introduce a Fusion module to align the collaborative and semantic signals, a Mixture-of-Experts (MoE) architecture that disentangles the conflicting gradients from positive and negative steering, and a three-stage training strategy that progressively aligns the semantic space of prompts with the collaborative space. Extensive experiments on real-world datasets demonstrate that DPR significantly outperforms state-of-the-art baselines in prompt-guided tasks while maintaining competitive performance in standard sequential recommendation scenarios.
- Abstract(参考訳): 従来のシーケンシャルレコメンデーションモデルは、暗黙の行動パターンのマイニングにおいて顕著な成功を収めた。
しかしながら、これらのアーキテクチャは、ユーザの直近の目標(例えば、自然言語のプロンプトによって表現される)が歴史的な習慣から逸脱した場合に適応するのに苦労する、明示的なユーザ意図に対して構造的に盲目のままである。
LLM-as-a-recommenderのパラダイムは、IDベースの検索の効率性と協調的な精度を犠牲にします。
本稿では,従来の逐次バックボーンをネイティブにサポートするためのモデルに依存しないフレームワークであるDecoupled Promptable Sequential Recommendation (DPR)を提案する。
DPRは、潜在ユーザ表現を検索空間内で直接変調する。
これを実現するために、協調的および意味的な信号を調整するFusionモジュール、矛盾する勾配を正と負のステアリングから切り離すMixture-of-Experts (MoE)アーキテクチャ、協調的な空間にプロンプトのセマンティック空間を段階的に整合させる3段階のトレーニング戦略を導入する。
実世界のデータセットに関する大規模な実験は、DPRが標準的なシーケンシャルなレコメンデーションシナリオにおける競合性能を維持しながら、プロンプト誘導タスクにおける最先端のベースラインを大幅に上回っていることを示している。
関連論文リスト
- EncodeRec: An Embedding Backbone for Recommendation Systems [4.7014546279849805]
本稿では,コンパクトで情報的な埋め込みを学習しながら,テキスト表現を推奨目的と整合させるアプローチであるEncodeRecを提案する。
コアレコメンデーションベンチマークの実験では、シーケンシャルレコメンデーションモデルとセマンティックIDトークン化のバックボーンとしての有効性が示されている。
これらの結果は,汎用言語モデルと実用的なレコメンデーションシステムとのギャップを埋める上で,埋め込み適応が重要な役割を担っていることを示す。
論文 参考訳(メタデータ) (2026-01-15T20:15:01Z) - Generative Reasoning Recommendation via LLMs [48.45009951684554]
大規模言語モデル(LLM)は、生成的推論レコメンデーションモデル(GRRM)として機能する上で、根本的な課題に直面している。
本研究は,レコメンデーションタスクに対する統一的な理解・推論・予測方法を実現する,事前学習されたLLMを適用してGRRMを構築する方法について検討する。
本稿では,協調的セマンティックアライメント(Collaborative-Semantic Alignment),Reasoning Curriculum Activation(Reasoning Curriculum Activation),Sparse-Regularized Group Policy Optimization(Sparse-Regularized Group Policy Optimization)の3つのコンポーネントを統合するエンドツーエンドフレームワークであるGREAMを提案する。
論文 参考訳(メタデータ) (2025-10-23T17:59:31Z) - STARec: An Efficient Agent Framework for Recommender Systems via Autonomous Deliberate Reasoning [54.28691219536054]
我々は、自律的な熟考的推論機能を備えたレコメンデータシステムを支援する、ゆっくり考えられた拡張エージェントフレームワークSTARecを紹介する。
我々は,先進的推論モデルと嗜好整合型報酬形成から構造化知識の蒸留を組み合わせた2段階のパラダイムであるアンカー強化訓練を開発する。
MovieLens 1MとAmazon CDsベンチマークの実験では、STARecは最先端のベースラインと比較して、大幅なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-08-26T08:47:58Z) - Embed Progressive Implicit Preference in Unified Space for Deep Collaborative Filtering [13.24227546548424]
GNOLR(Generalized Neural Ordinal Logistic Regression)は、ユーザエンゲージメントの構造的進行を捉えるために提案されている。
GNOLRは予測精度を高め、ユーザのエンゲージメントの進行を捉え、検索プロセスを単純化する。
10の実世界のデータセットでの実験では、GNOLRは効率と適応性において最先端の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-27T08:43:35Z) - Diffusion Generative Recommendation with Continuous Tokens [21.222713476105195]
ContRecは、連続トークンをLLMベースのRecSysにシームレスに統合するフレームワークである。
ContRecは従来型およびSOTA LLMベースのレコメンデータシステムよりも一貫して優れていることを示す。
本研究は,次世代レコメンデーションシステムにおける連続トークン化と生成モデリングの可能性を強調した。
論文 参考訳(メタデータ) (2025-04-16T12:01:03Z) - SRA-CL: Semantic Retrieval Augmented Contrastive Learning for Sequential Recommendation [23.050104678143935]
SRA-CL(Semantic Retrieval Augmented Contrastive Learning)という新しい手法を提案する。
SRA-CLはLLMのセマンティック理解と推論機能を活用し、ユーザの好みやアイテムの特徴をキャプチャする表現的な埋め込みを生成する。
SRA-CLはプラグイン・アンド・プレイの設計を採用しており、既存のシーケンシャルレコメンデーションアーキテクチャとシームレスに統合できる。
論文 参考訳(メタデータ) (2025-03-06T07:25:19Z) - EAGER-LLM: Enhancing Large Language Models as Recommenders through Exogenous Behavior-Semantic Integration [60.47645731801866]
大規模言語モデル(LLM)は、高度なレコメンデータシステムの基本バックボーンとしてますます活用されている。
LLMは事前訓練された言語意味論であるが、llm-Backboneを通してゼロから協調意味論を学ぶ。
内因性行動情報と内因性行動情報とを非侵襲的に統合するデコーダのみの生成推薦フレームワークであるEAGER-LLMを提案する。
論文 参考訳(メタデータ) (2025-02-20T17:01:57Z) - Semantic Convergence: Harmonizing Recommender Systems via Two-Stage Alignment and Behavioral Semantic Tokenization [10.47505806629852]
大規模言語モデル(LLM)は、歴史的行動からユーザの深い関心を識別する能力を持っている。
従来のレコメンデーションモデルとLLMの長所を調和的に融合する新しいフレームワークを提案する。
我々は、協調的な信号と自然言語意味論の微妙さを整合させることを目的とした、教師付き学習タスクのシリーズを設計する。
論文 参考訳(メタデータ) (2024-12-18T12:07:58Z) - Unleash LLMs Potential for Recommendation by Coordinating Twin-Tower Dynamic Semantic Token Generator [60.07198935747619]
動的セマンティック・インデックス・パラダイムを採用した最初の生成型RSであるTTDS(Twin-Tower Dynamic Semantic Recommender)を提案する。
より具体的には、ツイン・トワー・セマンティック・トークン・ジェネレータをLLMベースのレコメンデータに統合する動的知識融合フレームワークを初めて提案する。
提案したTTDSレコメンデータは,平均19.41%のヒットレート,20.84%のNDCG測定値を実現している。
論文 参考訳(メタデータ) (2024-09-14T01:45:04Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - Intent Contrastive Learning for Sequential Recommendation [86.54439927038968]
ユーザの意図を表現するために潜伏変数を導入し,クラスタリングにより潜伏変数の分布関数を学習する。
我々は,学習意図を対照的なSSLによってSRモデルに活用し,シーケンスのビューとそれに対応するインテントとの一致を最大化することを提案する。
4つの実世界のデータセットで実施された実験は、提案した学習パラダイムの優位性を示している。
論文 参考訳(メタデータ) (2022-02-05T09:24:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。