論文の概要: Temporal User Profiling with LLMs: Balancing Short-Term and Long-Term Preferences for Recommendations
- arxiv url: http://arxiv.org/abs/2508.08454v1
- Date: Mon, 11 Aug 2025 20:28:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.226805
- Title: Temporal User Profiling with LLMs: Balancing Short-Term and Long-Term Preferences for Recommendations
- Title(参考訳): LLMを用いた時間的ユーザプロファイリング:推奨事項の短期的および長期的選好のバランス
- Authors: Milad Sabouri, Masoud Mansoury, Kun Lin, Bamshad Mobasher,
- Abstract要約: 本稿では,短期および長期の嗜好を明示的にモデル化するユーザプロファイリング手法を提案する。
LLM-TUPは、いくつかのベースラインに対して大幅に改善されている。
- 参考スコア(独自算出の注目度): 3.719862246745416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately modeling user preferences is crucial for improving the performance of content-based recommender systems. Existing approaches often rely on simplistic user profiling methods, such as averaging or concatenating item embeddings, which fail to capture the nuanced nature of user preference dynamics, particularly the interactions between long-term and short-term preferences. In this work, we propose LLM-driven Temporal User Profiling (LLM-TUP), a novel method for user profiling that explicitly models short-term and long-term preferences by leveraging interaction timestamps and generating natural language representations of user histories using a large language model (LLM). These representations are encoded into high-dimensional embeddings using a pre-trained BERT model, and an attention mechanism is applied to dynamically fuse the short-term and long-term embeddings into a comprehensive user profile. Experimental results on real-world datasets demonstrate that LLM-TUP achieves substantial improvements over several baselines, underscoring the effectiveness of our temporally aware user-profiling approach and the use of semantically rich user profiles, generated by LLMs, for personalized content-based recommendation.
- Abstract(参考訳): ユーザの好みを正確にモデル化することは、コンテンツベースのレコメンデータシステムの性能向上に不可欠である。
既存のアプローチは、アイテムの埋め込みを平均化する、あるいは結合するといった単純化されたユーザープロファイリング手法に依存しており、これはユーザー好みのダイナミクス、特に長期と短期の好みの相互作用のニュアンスな性質を捉えるのに失敗する。
本研究では,対話のタイムスタンプを活用し,ユーザ履歴の自然言語表現を大言語モデル(LLM)を用いて生成することにより,短期的および長期的嗜好を明示的にモデル化するユーザプロファイリング手法であるLLM-TUPを提案する。
これらの表現は、事前訓練されたBERTモデルを用いて高次元埋め込みに符号化され、注意機構を適用して、短期および長期の埋め込みを包括的ユーザプロファイルに動的に融合させる。
実世界のデータセットに対する実験結果から,LLM-TUPは,時間的認識によるユーザプロファイリング手法の有効性と,パーソナライズされたコンテンツベースレコメンデーションのためにLLMが生成したセマンティックにリッチなユーザプロファイルの利用を前提として,いくつかのベースラインに対して大幅な改善を実現していることが示された。
関連論文リスト
- Using LLMs to Capture Users' Temporal Context for Recommendation [3.719862246745416]
本稿では,Large Language Models (LLMs) を用いて,意味的にリッチでタイムアウェアなユーザプロファイルを生成する手法を提案する。
我々は、新しいエンドツーエンドレコメンデーションアーキテクチャを提案していないが、中核となる貢献は、LLMの有効性の程度を体系的に調査することである。
Movies&TV と Video Games のドメイン間での評価では、LLM の生成したプロファイルは意味的な深さと時間構造を提供するが、コンテキスト対応のレコメンデーションの有効性はユーザーインタラクション履歴の豊かさに特有である。
論文 参考訳(メタデータ) (2025-08-11T22:48:31Z) - Multi-agents based User Values Mining for Recommendation [52.26100802380767]
効率的なユーザ値抽出のためのゼロショットマルチLLM協調フレームワークを提案する。
本研究は,本質的な意味を保ちながら,項目内容のコンデンスにテキスト要約手法を適用した。
幻覚を緩和するために,評価役と監督役の2つの特殊エージェントの役割を導入する。
論文 参考訳(メタデータ) (2025-05-02T04:01:31Z) - Towards Explainable Temporal User Profiling with LLMs [3.719862246745416]
我々は,大規模言語モデル(LLM)を利用して,ユーザのインタラクション履歴の自然言語要約を生成する。
我々のフレームワークは、時間的ユーザの好みをモデル化するだけでなく、解釈可能な方法でレコメンデーションを説明するために使える自然言語プロファイルも生成する。
論文 参考訳(メタデータ) (2025-05-01T22:02:46Z) - Know Me, Respond to Me: Benchmarking LLMs for Dynamic User Profiling and Personalized Responses at Scale [51.9706400130481]
大規模言語モデル(LLM)は、幅広いタスクでユーザのためのパーソナライズされたアシスタントとして登場した。
PERSONAMEMは180以上のユーザ-LLMインタラクション履歴を持つキュレートされたユーザプロファイルを備えている。
LLMチャットボットのユーザプロファイルの現在状況に応じて,最も適切な応答を識別する能力を評価する。
論文 参考訳(メタデータ) (2025-04-19T08:16:10Z) - Enhancing User Intent for Recommendation Systems via Large Language Models [0.0]
DUIPはLSTMネットワークとLLM(Large Language Models)を組み合わせた新しいフレームワークで、ユーザの意図を動的に把握し、パーソナライズされたアイテムレコメンデーションを生成する。
この結果から,DUIPは次世代レコメンデーションシステムにとって有望なアプローチであり,クロスモーダルレコメンデーションとスケーラビリティのさらなる向上の可能性が示唆された。
論文 参考訳(メタデータ) (2025-01-18T20:35:03Z) - Lifelong Personalized Low-Rank Adaptation of Large Language Models for Recommendation [50.837277466987345]
我々は、推奨のために大規模言語モデル(LLM)の分野に焦点を当てる。
ユーザ毎に独立したLoRAを管理するPersonalized LoRAモジュールを組み込んだRecLoRAを提案する。
また、Few2Many Learning Strategyを設計し、従来のレコメンデーションモデルをレンズとして使用して、小さなトレーニングスペースをフルスペースに拡大する。
論文 参考訳(メタデータ) (2024-08-07T04:20:28Z) - Self-Augmented Preference Optimization: Off-Policy Paradigms for Language Model Alignment [104.18002641195442]
既存のペアデータを必要としない、効果的でスケーラブルなトレーニングパラダイムである自己拡張型優先度最適化(SAPO)を導入する。
負の反応を自律的に生成するセルフプレイの概念に基づいて、我々はさらに、データ探索とエクスプロイトを強化するために、非政治的な学習パイプラインを組み込む。
論文 参考訳(メタデータ) (2024-05-31T14:21:04Z) - SPAR: Personalized Content-Based Recommendation via Long Engagement Attention [43.04717491985609]
パーソナライズされたコンテンツのレコメンデーションには、ユーザの長いエンゲージメント履歴を活用することが不可欠だ。
本稿では,コンテンツベースのレコメンデーションフレームワークであるSPARを導入する。
我々のフレームワークは、既存の最先端(SoTA)メソッドよりも優れています。
論文 参考訳(メタデータ) (2024-02-16T10:36:38Z) - Sequential Recommender via Time-aware Attentive Memory Network [67.26862011527986]
本稿では,注意機構と繰り返し単位を改善するための時間ゲーティング手法を提案する。
また,長期と短期の嗜好を統合するマルチホップ・タイムアウェア・アテンテーティブ・メモリ・ネットワークを提案する。
提案手法は,候補探索タスクに対してスケーラブルであり,ドット積に基づくTop-Kレコメンデーションのための潜在因数分解の非線形一般化とみなすことができる。
論文 参考訳(メタデータ) (2020-05-18T11:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。