論文の概要: An Efficient LLM-based Evolutional Recommendation with Locate-Forget-Update Paradigm
- arxiv url: http://arxiv.org/abs/2511.16414v1
- Date: Thu, 20 Nov 2025 14:36:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.672228
- Title: An Efficient LLM-based Evolutional Recommendation with Locate-Forget-Update Paradigm
- Title(参考訳): Locate-fort-Update Paradigmを用いたLLMに基づく効率的な進化的勧告
- Authors: Hao Liu, Le Wu, Min Hou, Han Wu, Kun Zhang, Xin Li, Si Wei,
- Abstract要約: 大規模言語モデル(LLM)は、逐次レコメンデーションにおいて例外的なパフォーマンスを示している。
LLMベースのレコメンデータシステム(LLMRec)の採用は、既存のeコマースプラットフォームでますます広まっている。
- 参考スコア(独自算出の注目度): 28.576122918607165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, Large Language Models (LLMs) have shown exceptional performance in sequential recommendations, and the adoption of LLM-based recommender systems (LLMRec) is becoming increasingly widespread in existing e-commerce platforms. Despite the impressive performance, the constant high volume of new user-item interactions makes it difficult to adapt to the evolution of user preference over time, especially for LLM-based recommender systems. The challenge arises from the large number of parameters in LLMs, which makes traditional evolution methods (i.e., Re-training or Fine-tuning) impractical. Specifically, Re-training with all interactions results in prohibitively high computational costs. On the other hand, fine-tuning with only new interactions leads to preference forgetting among inactive users, ultimately compromising overall performance. To tackle this problem, we propose EvoRec, an efficient Locate-Forget-Update framework designed for LLM-based recommender systems to model the evolution of user preferences. EvoRec identifies a small set of parameters associated with preference changes and updates them precisely, thereby saving computational resources while maintaining strong recommendation performance. Notably, the modified parameters account for only 30\% of LoRA adapter parameters, with no additional parameters introduced. Extensive experiments on two real-world datasets demonstrate that, compared to existing methods, EvoRec not only efficiently evolves LLMRec to adapt to the preferences of active users, but also preserves the interests of inactive users from being disturbed during evolution.
- Abstract(参考訳): 現在、LLM(Large Language Models)は、シーケンシャルなレコメンデーションにおいて例外的なパフォーマンスを示しており、既存のeコマースプラットフォームでLLMベースのレコメンデーションシステム(LLMRec)の採用がますます広まっている。
印象的な性能にもかかわらず、新しいユーザとイテムの相互作用が絶え間なく多いため、特にLLMベースのレコメンデータシステムにおいて、時間の経過とともにユーザの好みの進化に適応することが困難になる。
この課題は、従来の進化法(リトレーニングやファインチューニングなど)を非現実的にするLSMの多くのパラメータから生じる。
特に、全ての相互作用で再訓練すると、計算コストが著しく高くなる。
一方、新しいインタラクションのみによる微調整は、非アクティブなユーザーの間での好みを忘れさせ、最終的には全体的なパフォーマンスを損なう。
この問題に対処するために,LLMベースのレコメンデータシステム向けに設計された効率的なLocate-Forget-UpdateフレームワークであるEvoRecを提案する。
EvoRecは、好みの変更に関連するパラメータの小さなセットを特定し、それらを正確に更新することで、強力なレコメンデーション性能を維持しながら、計算リソースを節約する。
特に、修正されたパラメータはLoRAアダプタパラメータのわずか30倍で、追加のパラメータは導入されていない。
2つの実世界のデータセットに対する大規模な実験は、既存の方法と比較して、EvoRecがLLMRecを効率的に進化させ、アクティブなユーザの好みに適応するだけでなく、不活性なユーザの興味が進化中に乱されるのを防ぐことを実証している。
関連論文リスト
- Modality-Balancing Preference Optimization of Large Multimodal Models by Adversarial Negative Mining [75.14823970163685]
LMMにおけるモダリティの不均衡に対処するため、新しい選好学習フレームワークMBPOを提案する。
MBPOは、強い負の反応、すなわちLLMバイアスによって誤った反応を生成することによって、より効果的なオフライン嗜好データセットを構築する。
視覚言語課題におけるLMM性能を高め、幻覚を効果的に軽減することができる。
論文 参考訳(メタデータ) (2025-05-20T03:59:05Z) - AdaptRec: A Self-Adaptive Framework for Sequential Recommendations with Large Language Models [10.52052172996229]
AdaptRecは、明示的な協調シグナルを組み込むことで、シーケンシャルなレコメンデーションのためにLarge Language Modelsを活用する、自己適応型のフラムワークである。
本研究では,その行動系列を自然言語に変換するユーザコンテキスト適応型レコメンデーション・プロンプトを開発し,これらの情報をレコメンデーション・プロセスに明示的に統合する。
AdaptRecの優れたパフォーマンスを示す実験では、HitRatio@1スコアの7.13%、18.16%、10.41%が現実世界のデータセットで大幅に改善されている。
論文 参考訳(メタデータ) (2025-04-06T00:30:50Z) - PROPER: A Progressive Learning Framework for Personalized Large Language Models with Group-Level Adaptation [32.53309583561644]
本稿では,社会科学におけるメソレベルの理論に触発された新しい学習フレームワークであるPROPERを提案する。
ProPERは、好みに基づいてユーザーをグループ化し、段階的にLSMを適用することで、人口レベルとユーザーレベルのモデルを橋渡しする。
実験の結果,Properは複数のタスクでSOTAモデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2025-03-03T08:40:50Z) - Amulet: ReAlignment During Test Time for Personalized Preference Adaptation of LLMs [28.759591573106917]
Amuletは、各トークンの復号処理を独立したオンライン学習問題として定式化する、トレーニング不要のフレームワークである。
Amuletは、異なるLLM、データセット、ユーザー好みの組み合わせで、リッチな設定で大幅なパフォーマンス改善を実現することができることを示す。
論文 参考訳(メタデータ) (2025-02-26T14:07:37Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - Laser: Parameter-Efficient LLM Bi-Tuning for Sequential Recommendation with Collaborative Information [76.62949982303532]
協調情報を用いた逐次レコメンデーションのためのパラメータ効率の高い大規模言語モデルバイチューニングフレームワーク(Laser)を提案する。
我々のレーザーでは,プレフィックスを用いてユーザと協調的な情報を取り込み,LLMをレコメンデーションタスクに適応させ,サフィックスは言語空間からレコメンデーションスペースへのLLMの出力埋め込みをリコメンデーション項目レコメンデーションスペースに変換する。
M-Formerは軽量なMoEベースのクエリ変換器で、クエリ専門家のセットを使用して、凍結IDベースのシーケンシャルレコメンデータシステムによって符号化された多様なユーザ固有の協調情報を統合する。
論文 参考訳(メタデータ) (2024-09-03T04:55:03Z) - Beyond Inter-Item Relations: Dynamic Adaption for Enhancing LLM-Based Sequential Recommendation [83.87767101732351]
逐次リコメンデータシステム(SRS)は,ユーザの過去のインタラクションシーケンスに基づいて,ユーザが好む次の項目を予測する。
様々なAIアプリケーションにおける大規模言語モデル(LLM)の台頭に触発されて、LLMベースのSRSの研究が急増している。
我々は,大きめの粒度適応の上に構築された逐次レコメンデーションモデルであるDARecを提案する。
論文 参考訳(メタデータ) (2024-08-14T10:03:40Z) - Self-Augmented Preference Optimization: Off-Policy Paradigms for Language Model Alignment [104.18002641195442]
既存のペアデータを必要としない、効果的でスケーラブルなトレーニングパラダイムである自己拡張型優先度最適化(SAPO)を導入する。
負の反応を自律的に生成するセルフプレイの概念に基づいて、我々はさらに、データ探索とエクスプロイトを強化するために、非政治的な学習パイプラインを組み込む。
論文 参考訳(メタデータ) (2024-05-31T14:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。