論文の概要: Preference Discerning with LLM-Enhanced Generative Retrieval
- arxiv url: http://arxiv.org/abs/2412.08604v2
- Date: Fri, 10 Oct 2025 14:19:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:44.897562
- Title: Preference Discerning with LLM-Enhanced Generative Retrieval
- Title(参考訳): LLM強化生成検索による選好判別
- Authors: Fabian Paischer, Liu Yang, Linfeng Liu, Shuai Shao, Kaveh Hassani, Jiacheng Li, Ricky Chen, Zhang Gabriel Li, Xiaoli Gao, Wei Shao, Xue Feng, Nima Noorshams, Sem Park, Bo Long, Hamid Eghbalzadeh,
- Abstract要約: 逐次レコメンデーションでは、モデルがユーザのインタラクション履歴に基づいたアイテムを推奨する。
本稿では,ユーザの嗜好を生成的レコメンデーションモデルに明示的に規定する,選好識別という新たなパラダイムを提案する。
以上の結果から,Menderはトレーニング中に観察されなかったとしても,ヒトの嗜好によって指導される推奨に効果的に適応することが示された。
- 参考スコア(独自算出の注目度): 23.559962422900238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In sequential recommendation, models recommend items based on user's interaction history. To this end, current models usually incorporate information such as item descriptions and user intent or preferences. User preferences are usually not explicitly given in open-source datasets, and thus need to be approximated, for example via large language models (LLMs). Current approaches leverage approximated user preferences only during training and rely solely on the past interaction history for recommendations, limiting their ability to dynamically adapt to changing preferences, potentially reinforcing echo chambers. To address this issue, we propose a new paradigm, namely preference discerning, which explicitly conditions a generative recommendation model on user preferences in natural language within its context. To evaluate preference discerning, we introduce a novel benchmark that provides a holistic evaluation across various scenarios, including preference steering and sentiment following. Upon evaluating current state-of-the-art methods on our benchmark, we discover that their ability to dynamically adapt to evolving user preferences is limited. To address this, we propose a new method named Mender ($\textbf{M}$ultimodal Prefer$\textbf{en}$ce $\textbf{D}$iscern$\textbf{er}$), which achieves state-of-the-art performance in our benchmark. Our results show that Mender effectively adapts its recommendation guided by human preferences, even if not observed during training, paving the way toward more flexible recommendation models.
- Abstract(参考訳): 逐次レコメンデーションでは、モデルがユーザのインタラクション履歴に基づいたアイテムを推奨する。
この目的のために、現在のモデルは通常、アイテム記述やユーザー意図や好みといった情報を含む。
ユーザの好みは通常、オープンソースデータセットで明示的に指定されないため、例えば大きな言語モデル(LLM)を通じて近似する必要がある。
現在のアプローチでは、トレーニング中にのみ近似されたユーザの好みを利用し、過去のインタラクション履歴のみをレコメンデーションに頼り、変更する好みに動的に適応する能力を制限し、エコーチャンバーを補強する可能性がある。
この問題に対処するため,本稿では,自然言語におけるユーザの嗜好に関する生成的レコメンデーションモデルを明確に規定する,新たなパラダイムである選好識別を提案する。
嗜好の識別を評価するために,選好のステアリングや感情の追従など,様々なシナリオにまたがって総合的な評価を行う新しいベンチマークを導入する。
我々のベンチマークで現在の最先端の手法を評価すると、進化するユーザの好みに動的に適応できる能力は限られていることがわかりました。
そこで我々は,Mender ($\textbf{M}$ultimodal Prefer$\textbf{en}$ce $\textbf{D}$iscern$\textbf{er}$)という新しい手法を提案する。
以上の結果から,Menderはトレーニング中に見つからず,より柔軟なレコメンデーションモデルへの道を開いたとしても,人間の嗜好によって指導されたレコメンデーションを効果的に適応させることが示唆された。
関連論文リスト
- Churn-Aware Recommendation Planning under Aggregated Preference Feedback [6.261444979025644]
本稿では,近年の規制と技術の変化を動機とした逐次的意思決定問題について考察する。
我々はRec-APCモデルを導入し、匿名ユーザを既知の先行ユーザ型から抽出する。
最適ポリシが有限時間で純粋な利用に収束することを証明し、それらを効率的に計算するための分岐とバウンドのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-07-06T19:22:47Z) - LLM-based User Profile Management for Recommender System [15.854727020186408]
PUREは、ユーザレビューから重要な情報を体系的に抽出し、要約することによって、進化するユーザプロファイルを構築し、維持する。
我々は、レビューを時間とともに追加し、予測を漸進的に更新することで、現実のシナリオを反映した連続的なレコメンデーションタスクを導入する。
Amazonデータセットに対する実験結果から、PUREは既存のLCMベースの手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-20T13:20:19Z) - Interactive Visualization Recommendation with Hier-SUCB [52.11209329270573]
本稿では,従来のインタラクションからユーザフィードバックを学習する対話型パーソナライズドビジュアライゼーションレコメンデーション(PVisRec)システムを提案する。
よりインタラクティブで正確なレコメンデーションのために、PVisRec設定における文脈的半帯域であるHier-SUCBを提案する。
論文 参考訳(メタデータ) (2025-02-05T17:14:45Z) - ULMRec: User-centric Large Language Model for Sequential Recommendation [16.494996929730927]
ユーザがカスタマイズした好みを大規模言語モデルに統合するフレームワークであるULMRecを提案する。
2つの公開データセットに対する大規模な実験は、ULMRecが既存の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2024-12-07T05:37:00Z) - Preference Diffusion for Recommendation [50.8692409346126]
DMベースのレコメンデータに適した最適化対象であるPreferDiffを提案する。
PreferDiffは、BPRをログライクなランキング目標に変換することで、ユーザの好みをよりよく把握する。
これはDMベースのレコメンデーション向けに特別に設計された、パーソナライズされたランキングの損失である。
論文 参考訳(メタデータ) (2024-10-17T01:02:04Z) - Aligning Explanations for Recommendation with Rating and Feature via Maximizing Mutual Information [29.331050754362803]
現在の説明生成手法は,既存のユーザレビューを模倣する目的で一般的に訓練されている。
MMIフレームワークと呼ばれるフレキシブルなモデルに依存しない手法を提案し、生成した自然言語の説明と予測された評価/重要項目の特徴との整合性を高める。
私たちのMMIフレームワークは、さまざまなバックボーンモデルを強化し、予測された評価やアイテム機能との整合性の観点から、既存のベースラインを上回ります。
論文 参考訳(メタデータ) (2024-07-18T08:29:55Z) - How to Diversify any Personalized Recommender? A User-centric Pre-processing approach [0.0]
推薦性能を維持しつつ,Top-Nレコメンデーションの多様性を向上させるための新しいアプローチを提案する。
当社のアプローチでは,ユーザを幅広いコンテンツカテゴリやトピックに公開するための,ユーザ中心の事前処理戦略を採用しています。
論文 参考訳(メタデータ) (2024-05-03T15:02:55Z) - Explainable Active Learning for Preference Elicitation [0.0]
我々は、最小限のユーザ労力で情報取得を最大化することを目的として、この問題を解決するためにアクティブラーニング(AL)を採用している。
ALは、大きなラベルのない集合から情報的データを選択して、それらをラベル付けするオラクルを問い合わせる。
ベースとなる機械学習(ML)モデルを更新するために、ユーザからのフィードバック(提示された項目に関するシステムの説明のために)を情報的なサンプルから収集する。
論文 参考訳(メタデータ) (2023-09-01T09:22:33Z) - Impression-Aware Recommender Systems [53.48892326556546]
本稿ではインプレッションを用いたレコメンデーションシステムに関する体系的な文献レビューを行う。
本稿では,印象型レコメンデーションシステムと,印象型レコメンデーションシステムという,パーソナライズされたレコメンデーションのための新しいパラダイムを論じる。
論文 参考訳(メタデータ) (2023-08-15T16:16:02Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z) - Latent User Intent Modeling for Sequential Recommenders [92.66888409973495]
逐次リコメンデータモデルは、プラットフォーム上での氏のインタラクション履歴に基づいて、ユーザが次に対話する可能性のあるアイテムを予測することを学習する。
しかし、ほとんどのシーケンシャルなレコメンデータは、ユーザの意図に対する高いレベルの理解を欠いている。
したがって、インテントモデリングはユーザー理解と長期ユーザーエクスペリエンスの最適化に不可欠である。
論文 参考訳(メタデータ) (2022-11-17T19:00:24Z) - Modeling Dynamic User Preference via Dictionary Learning for Sequential
Recommendation [133.8758914874593]
ユーザの好みのダイナミックさを捉えることは、ユーザの将来の行動を予測する上で非常に重要です。
浅いものも深いものも含む、既存のレコメンデーションアルゴリズムの多くは、このようなダイナミクスを独立してモデル化することが多い。
本稿では、ユーザのシーケンシャルな振る舞いを、ユーザ好みの潜伏した空間に埋め込むことの問題について考察する。
論文 参考訳(メタデータ) (2022-04-02T03:23:46Z) - PURS: Personalized Unexpected Recommender System for Improving User
Satisfaction [76.98616102965023]
本稿では、予期せぬことを推奨プロセスに組み込んだ、新しいPersonalized Unexpected Recommender System(PURS)モデルについて述べる。
3つの実世界のデータセットに対する大規模なオフライン実験は、提案されたPURSモデルが最先端のベースラインアプローチを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2021-06-05T01:33:21Z) - Sequential recommendation with metric models based on frequent sequences [0.688204255655161]
提案手法では,ユーザ履歴の最も関連性の高い部分を特定するために,頻繁なシーケンスを用いることを提案する。
最も健全なアイテムは、ユーザの好みとシーケンシャルなダイナミクスに基づいてアイテムを埋め込む統合されたメトリックモデルで使用される。
論文 参考訳(メタデータ) (2020-08-12T22:08:04Z) - Reward Constrained Interactive Recommendation with Natural Language
Feedback [158.8095688415973]
制約強化強化学習(RL)フレームワークを提案する。
具体的には,ユーザの過去の嗜好に反するレコメンデーションを検出するために,識別器を利用する。
提案するフレームワークは汎用的であり,制約付きテキスト生成のタスクにさらに拡張されている。
論文 参考訳(メタデータ) (2020-05-04T16:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。