論文の概要: PersonaX: A Recommendation Agent Oriented User Modeling Framework for Long Behavior Sequence
- arxiv url: http://arxiv.org/abs/2503.02398v2
- Date: Sat, 24 May 2025 04:37:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 14:32:53.535969
- Title: PersonaX: A Recommendation Agent Oriented User Modeling Framework for Long Behavior Sequence
- Title(参考訳): PersonaX:ロングビヘイビアシーケンスのための推奨エージェント指向ユーザモデリングフレームワーク
- Authors: Yunxiao Shi, Wujiang Xu, Zeqi Zhang, Xing Zi, Qiang Wu, Min Xu,
- Abstract要約: PersonaX はエージェントに依存しない LLM-UM フレームワークであり、これらの課題に対処する。
より優れたレコメンデーションパフォーマンスと推論効率を達成するために、下流のレコメンデーションエージェントを拡張する。
- 参考スコア(独自算出の注目度): 8.557534799079956
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: User profile embedded in the prompt template of personalized recommendation agents play a crucial role in shaping their decision-making process. High-quality user profiles are essential for aligning agent behavior with real user interests. Typically, these profiles are constructed by leveraging LLMs for user profile modeling (LLM-UM). However, this process faces several challenges: (1) LLMs struggle with long user behaviors due to context length limitations and performance degradation. (2) Existing methods often extract only partial segments from full historical behavior sequence, inevitably discarding diverse user interests embedded in the omitted content, leading to incomplete modeling and suboptimal profiling. (3) User profiling is often tightly coupled with the inference context, requiring online processing, which introduces significant latency overhead. In this paper, we propose PersonaX, an agent-agnostic LLM-UM framework to address these challenges. It augments downstream recommendation agents to achieve better recommendation performance and inference efficiency. PersonaX (a) segments complete historical behaviors into clustered groups, (b) selects multiple sub behavior sequences (SBS) with a balance of prototypicality and diversity to form a high quality core set, (c) performs offline multi-persona profiling to capture diverse user interests and generate fine grained, cached textual personas, and (d) decouples user profiling from online inference, enabling profile retrieval instead of real time generation. Extensive experiments demonstrate its effectiveness: using only 30 to 50% of behavioral data (sequence length 480), PersonaX enhances AgentCF by 3 to 11% and Agent4Rec by 10 to 50%. As a scalable and model-agnostic LLM-UM solution, PersonaX sets a new benchmark in scalable user modeling.
- Abstract(参考訳): パーソナライズされたレコメンデーションエージェントのプロンプトテンプレートに埋め込まれたユーザプロファイルは、意思決定プロセスを形成する上で重要な役割を果たす。
ハイクオリティなユーザープロファイルは、エージェントの振る舞いと実際のユーザの興味を一致させるのに不可欠である。
通常、これらのプロファイルはユーザプロファイルモデリング(LLM-UM)にLLMを利用することで構築される。
1) LLM はコンテキスト長の制限や性能劣化による長いユーザ動作に苦しむ。
2) 既存の手法では, 完全履歴行動列から部分的部分のみを抽出し, 省略された内容に埋め込まれた多様なユーザ関心を必然的に排除し, 不完全モデリングや準最適プロファイリングに繋がる。
(3) ユーザプロファイリングは、しばしば推論コンテキストと密結合され、オンライン処理を必要とする。
本稿では,これらの課題に対処するエージェント非依存の LLM-UM フレームワークである PersonaX を提案する。
より優れたレコメンデーションパフォーマンスと推論効率を達成するために、下流のレコメンデーションエージェントを拡張する。
ペルソナX
(a) 完全な歴史的挙動をクラスタ化されたグループに分割する。
b) 原型性と多様性のバランスの取れた複数のサブ行動列(SBS)を選択し、高品質なコアセットを形成する。
(c) オフラインマルチパーソナプロファイリングを行い、多様なユーザの興味を捉え、細粒度でキャッシュされたテキストペルソナを生成し、
(d) ユーザのプロファイリングをオンライン推論から切り離し、リアルタイム生成ではなくプロファイル検索を可能にする。
行動データ(シーケンス長480)の30から50%しか使用せず、 PersonaXはAgentCFを3から11%、Agent4Recを10から50%強化する。
スケーラブルでモデルに依存しないLCM-UMソリューションとして、PersonaXはスケーラブルなユーザーモデリングの新しいベンチマークを設定している。
関連論文リスト
- AdaptRec: A Self-Adaptive Framework for Sequential Recommendations with Large Language Models [10.52052172996229]
AdaptRecは、明示的な協調シグナルを組み込むことで、シーケンシャルなレコメンデーションのためにLarge Language Modelsを活用する、自己適応型のフラムワークである。
本研究では,その行動系列を自然言語に変換するユーザコンテキスト適応型レコメンデーション・プロンプトを開発し,これらの情報をレコメンデーション・プロセスに明示的に統合する。
AdaptRecの優れたパフォーマンスを示す実験では、HitRatio@1スコアの7.13%、18.16%、10.41%が現実世界のデータセットで大幅に改善されている。
論文 参考訳(メタデータ) (2025-04-06T00:30:50Z) - Efficient and Responsible Adaptation of Large Language Models for Robust and Equitable Top-k Recommendations [12.814937243361054]
我々は,すべてのユーザグループに公平にサービスを提供することで,社会的利益を促進するために設計されたハイブリッドタスク割り当てフレームワークを提案する。
実世界の3つのデータセットによる結果から,ユーザ数が大幅に減少し,不均等にコストを増大させることなく,サブポピュレーションに対するロバスト性が改善された。
論文 参考訳(メタデータ) (2025-01-08T18:08:48Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - LIBER: Lifelong User Behavior Modeling Based on Large Language Models [42.045535303737694]
大規模言語モデルに基づく生涯ユーザ行動モデリング(LIBER)を提案する。
LIBERはHuaweiの音楽レコメンデーションサービスにデプロイされ、ユーザーの再生回数と再生時間の3.01%と7.69%を大幅に改善した。
論文 参考訳(メタデータ) (2024-11-22T03:43:41Z) - Improved Diversity-Promoting Collaborative Metric Learning for Recommendation [127.08043409083687]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T07:44:48Z) - Prompt Tuning as User Inherent Profile Inference Machine [53.78398656789463]
本稿では,ユーザプロファイルの推測にプロンプトチューニングを用いるUserIP-Tuningを提案する。
プロファイル量子化コードブックは、プロファイル埋め込みによるモダリティギャップを協調IDにブリッジする。
4つの公開データセットの実験では、UserIP-Tuningは最先端のレコメンデーションアルゴリズムを上回っている。
論文 参考訳(メタデータ) (2024-08-13T02:25:46Z) - Lifelong Personalized Low-Rank Adaptation of Large Language Models for Recommendation [50.837277466987345]
我々は、推奨のために大規模言語モデル(LLM)の分野に焦点を当てる。
ユーザ毎に独立したLoRAを管理するPersonalized LoRAモジュールを組み込んだRecLoRAを提案する。
また、Few2Many Learning Strategyを設計し、従来のレコメンデーションモデルをレンズとして使用して、小さなトレーニングスペースをフルスペースに拡大する。
論文 参考訳(メタデータ) (2024-08-07T04:20:28Z) - Self-Augmented Preference Optimization: Off-Policy Paradigms for Language Model Alignment [104.18002641195442]
既存のペアデータを必要としない、効果的でスケーラブルなトレーニングパラダイムである自己拡張型優先度最適化(SAPO)を導入する。
負の反応を自律的に生成するセルフプレイの概念に基づいて、我々はさらに、データ探索とエクスプロイトを強化するために、非政治的な学習パイプラインを組み込む。
論文 参考訳(メタデータ) (2024-05-31T14:21:04Z) - Efficient and Responsible Adaptation of Large Language Models for Robust Top-k Recommendations [11.004673022505566]
何百万というユーザの長いクエリは、大規模言語モデルのパフォーマンスを低下させ、推奨することができる。
本稿では,大規模言語モデルと従来のレコメンデーションシステムの両方の機能を利用するハイブリッドタスク割り当てフレームワークを提案する。
実世界の3つのデータセットによる結果から,弱い利用者の減少と,サブ人口に対するRSのロバスト性の向上が示唆された。
論文 参考訳(メタデータ) (2024-05-01T19:11:47Z) - Democratizing Large Language Models via Personalized Parameter-Efficient Fine-tuning [36.88126051792774]
大規模言語モデル(LLM)のパーソナライゼーションはますます重要になっている。
1つのPEFT Per User (OPPU) は、パーソナライズされたパラメータ効率の微調整(PEFT)モジュールを使用して、ユーザ固有の行動パターンと好みを保存する。
OPPUは、LaMPベンチマークの7つのタスクで既存のプロンプトベースのメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-02-06T21:03:52Z) - Integrating Summarization and Retrieval for Enhanced Personalization via
Large Language Models [11.950478880423733]
パーソナライゼーションは自然言語処理(NLP)システムにおけるユーザエクスペリエンスにおいて重要な要素である。
LLM(Large Language Models)の出現によって、重要な疑問は、これらのモデルを使ってユーザエクスペリエンスをよりパーソナライズする方法である。
LLMが生成するタスク対応ユーザ要約を用いた,新しい要約型パーソナライゼーションを提案する。
論文 参考訳(メタデータ) (2023-10-30T23:40:41Z) - On Generative Agents in Recommendation [58.42840923200071]
Agent4Recは、Large Language Modelsに基づいたレコメンデーションのユーザーシミュレータである。
各エージェントは、ページ単位でパーソナライズされた推奨モデルと対話する。
論文 参考訳(メタデータ) (2023-10-16T06:41:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。