論文の概要: Memory Assisted LLM for Personalized Recommendation System
- arxiv url: http://arxiv.org/abs/2505.03824v1
- Date: Sat, 03 May 2025 06:24:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.844898
- Title: Memory Assisted LLM for Personalized Recommendation System
- Title(参考訳): パーソナライズされたレコメンデーションシステムのためのメモリアシストLDM
- Authors: Jiarui Chen,
- Abstract要約: メモリアシストパーソナライズされたLLMは、ユーザのインタラクションを通じてユーザの好みをキャプチャする。
推薦中、類似性に基づいて関連する記憶を抽出する。
ユーザ履歴が大きくなるにつれて、MAPの利点は両方のシナリオで増大する。
- 参考スコア(独自算出の注目度): 0.7445414627343342
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have demonstrated significant potential in solving recommendation tasks. With proven capabilities in understanding user preferences, LLM personalization has emerged as a critical area for providing tailored responses to individuals. Current studies explore personalization through prompt design and fine-tuning, paving the way for further research in personalized LLMs. However, existing approaches are either costly and inefficient in capturing diverse user preferences or fail to account for timely updates to user history. To address these gaps, we propose the Memory-Assisted Personalized LLM (MAP). Through user interactions, we first create a history profile for each user, capturing their preferences, such as ratings for historical items. During recommendation, we extract relevant memory based on similarity, which is then incorporated into the prompts to enhance personalized recommendations. In our experiments, we evaluate MAP using a sequential rating prediction task under two scenarios: single domain, where memory and tasks are from the same category (e.g., movies), and cross-domain (e.g., memory from movies and recommendation tasks in books). The results show that MAP outperforms regular LLM-based recommenders that integrate user history directly through prompt design. Moreover, as user history grows, MAP's advantage increases in both scenarios, making it more suitable for addressing successive personalized user requests.
- Abstract(参考訳): 大規模言語モデル(LLM)は、レコメンデーションタスクの解決に大きな可能性を示している。
ユーザの嗜好を理解する能力が証明されたことから、LLMパーソナライゼーションは個人に適切な応答を提供するための重要な領域として現れてきた。
近年の研究では、パーソナライズを迅速なデザインと微調整を通じて探求し、パーソナライズされたLLMにおけるさらなる研究の道を開いた。
しかし、既存のアプローチは、多様なユーザの好みを捉えるのに費用がかかり非効率であるか、ユーザー履歴のタイムリーな更新を説明できないかのいずれかである。
これらのギャップに対処するため,メモリアシスト型パーソナライズ LLM (MAP) を提案する。
ユーザ間のインタラクションを通じて、まずユーザ毎に履歴プロファイルを作成し、履歴項目のレーティングなどの好みをキャプチャする。
推薦中、類似性に基づいて関連記憶を抽出し、それをプロンプトに組み込んでパーソナライズされたレコメンデーションを強化する。
実験では,同じカテゴリ(例えば映画)からメモリとタスクを抽出する単一領域と,クロスドメイン(例えば映画からのメモリ,書籍のレコメンデーションタスク)の2つのシナリオで,逐次評価予測タスクを用いてMAPを評価する。
その結果,MAPはユーザ履歴を直接統合するレコメンデータよりも,プロンプト設計により優れていることがわかった。
さらに、ユーザ履歴が大きくなるにつれて、MAPの利点は両方のシナリオで増加し、連続したパーソナライズされたユーザリクエストに対処するのにより適している。
関連論文リスト
- Know Me, Respond to Me: Benchmarking LLMs for Dynamic User Profiling and Personalized Responses at Scale [51.9706400130481]
大規模言語モデル(LLM)は、幅広いタスクでユーザのためのパーソナライズされたアシスタントとして登場した。
PERSONAMEMは180以上のユーザ-LLMインタラクション履歴を持つキュレートされたユーザプロファイルを備えている。
LLMチャットボットのユーザプロファイルの現在状況に応じて,最も適切な応答を識別する能力を評価する。
論文 参考訳(メタデータ) (2025-04-19T08:16:10Z) - ULMRec: User-centric Large Language Model for Sequential Recommendation [16.494996929730927]
ユーザがカスタマイズした好みを大規模言語モデルに統合するフレームワークであるULMRecを提案する。
2つの公開データセットに対する大規模な実験は、ULMRecが既存の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2024-12-07T05:37:00Z) - Optimizing Data Delivery: Insights from User Preferences on Visuals, Tables, and Text [59.68239795065175]
ユーザが質問を提示するユーザスタディを実施し、何を見たいのかを尋ねます。
ユーザの個人的特性が、彼らが好むデータ出力に影響を与えることを確認するために、このデータを使用します。
論文 参考訳(メタデータ) (2024-11-12T00:24:31Z) - Aligning LLMs with Individual Preferences via Interaction [51.72200436159636]
調整可能な大きな言語モデル(LLM)をトレーニングします。
木構造における3K以上の多ターン会話を含む多ターン嗜好データセットを開発した。
評価のために、慎重に選択された100のサンプルと、会話中にカスタマイズされたアライメント性能を測定するために適切に設計されたメトリクスからなるALOEベンチマークを確立する。
論文 参考訳(メタデータ) (2024-10-04T17:48:29Z) - PersonalLLM: Tailoring LLMs to Individual Preferences [11.717169516971856]
我々は、特定のユーザに対して最大限のメリットを提供するためにLLMを適用することに焦点を当てた、PersonalLLMという公開ベンチマークを提示する。
我々は、ユーザーが不均一な潜伏傾向を示すことを期待する高品質な回答と組み合わせたオープンエンドプロンプトをキュレートする。
私たちのデータセットと生成された個人性は、パーソナライズアルゴリズムを開発するための革新的なテストベッドを提供します。
論文 参考訳(メタデータ) (2024-09-30T13:55:42Z) - Reinforced Prompt Personalization for Recommendation with Large Language Models [24.360796133889156]
本稿では,個々のユーザに対して個別のプロンプトをパーソナライズすることを目的とした,インスタンスワイドプロンプトの概念を紹介する。
効率と品質を向上させるため、RPPは単語ごとの単語を検索するのではなく、文レベルでプロンプトをパーソナライズする。
論文 参考訳(メタデータ) (2024-07-24T09:24:49Z) - A Cooperative Memory Network for Personalized Task-oriented Dialogue
Systems with Incomplete User Profiles [55.951126447217526]
ユーザプロファイルの完成を前提とせず,タスク指向対話システムについて検討する。
ユーザプロファイルを徐々に強化する新しいメカニズムを持つ協調記憶ネットワーク(CoMemNN)を提案する。
CoMemNNは、ユーザープロファイルを効果的に強化することができ、応答選択精度の点で3.6%の改善につながります。
論文 参考訳(メタデータ) (2021-02-16T18:05:54Z) - Sequential Recommender via Time-aware Attentive Memory Network [67.26862011527986]
本稿では,注意機構と繰り返し単位を改善するための時間ゲーティング手法を提案する。
また,長期と短期の嗜好を統合するマルチホップ・タイムアウェア・アテンテーティブ・メモリ・ネットワークを提案する。
提案手法は,候補探索タスクに対してスケーラブルであり,ドット積に基づくTop-Kレコメンデーションのための潜在因数分解の非線形一般化とみなすことができる。
論文 参考訳(メタデータ) (2020-05-18T11:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。