論文の概要: Real-Time Personalization for LLM-based Recommendation with Customized In-Context Learning
- arxiv url: http://arxiv.org/abs/2410.23136v1
- Date: Wed, 30 Oct 2024 15:48:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 11:30:30.065150
- Title: Real-Time Personalization for LLM-based Recommendation with Customized In-Context Learning
- Title(参考訳): カスタマイズ型インコンテキスト学習によるLLMに基づく推薦のためのリアルタイムパーソナライズ
- Authors: Keqin Bao, Ming Yan, Yang Zhang, Jizhi Zhang, Wenjie Wang, Fuli Feng, Xiangnan He,
- Abstract要約: この研究は、モデル更新なしに動的なユーザ関心に適応することを検討する。
既存のLarge Language Model (LLM)ベースのレコメンダは、レコメンデーションチューニング中にコンテキスト内学習能力を失うことが多い。
本稿では,レコメンデーション固有のインコンテキスト学習をリアルタイムレコメンデーションにカスタマイズするRecICLを提案する。
- 参考スコア(独自算出の注目度): 57.28766250993726
- License:
- Abstract: Frequently updating Large Language Model (LLM)-based recommender systems to adapt to new user interests -- as done for traditional ones -- is impractical due to high training costs, even with acceleration methods. This work explores adapting to dynamic user interests without any model updates by leveraging In-Context Learning (ICL), which allows LLMs to learn new tasks from few-shot examples provided in the input. Using new-interest examples as the ICL few-shot examples, LLMs may learn real-time interest directly, avoiding the need for model updates. However, existing LLM-based recommenders often lose the in-context learning ability during recommendation tuning, while the original LLM's in-context learning lacks recommendation-specific focus. To address this, we propose RecICL, which customizes recommendation-specific in-context learning for real-time recommendations. RecICL organizes training examples in an in-context learning format, ensuring that in-context learning ability is preserved and aligned with the recommendation task during tuning. Extensive experiments demonstrate RecICL's effectiveness in delivering real-time recommendations without requiring model updates. Our code is available at https://github.com/ym689/rec_icl.
- Abstract(参考訳): LLM(Large Language Model)ベースのレコメンデータシステムを頻繁に更新して、従来のものと同じように、新しいユーザ関心に適応させることは、アクセラレーションメソッドであっても、高いトレーニングコストのために現実的ではありません。
この研究は、ICL(In-Context Learning)を活用して、モデル更新なしで動的ユーザ興味に適応することを検討する。
新しい興味のある例をICLのいくつかの例として使用すれば、LLMはモデル更新の必要性を回避して、リアルタイムの関心を直接学習することができる。
しかし、既存のLLMベースのレコメンデータはレコメンデーションチューニング時にコンテキスト内学習能力を失うことが多いが、オリジナルのLLMのインコンテキスト学習はレコメンデーション固有の焦点を欠いている。
そこで本稿では,リアルタイムレコメンデーションのためのレコメンデーション固有のインコンテキスト学習をカスタマイズするRecICLを提案する。
RecICLは、トレーニング例をコンテキスト内学習形式で整理し、トレーニング中にコンテキスト内学習能力が保持され、レコメンデーションタスクと整合することを保証する。
大規模な実験では、モデル更新を必要とせずにリアルタイムレコメンデーションを提供するRecICLの有効性が実証されている。
私たちのコードはhttps://github.com/ym689/rec_icl.comから入手可能です。
関連論文リスト
- Teaching Models to Improve on Tape [30.330699770714165]
大きな言語モデル(LLM)は、特定の制約の下でコンテンツを生成するよう促されたときにしばしば苦労する。
最近の研究によると、LLMはそのような「修正的フィードバック」の恩恵を受けることができる。
本稿では,そのような報酬をモデルに教えるためのRLフレームワークを紹介し,その制約を満たす能力に応じてモデルに報酬を与える。
論文 参考訳(メタデータ) (2024-11-03T08:49:55Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Soft Prompting for Unlearning in Large Language Models [11.504012974208466]
この研究は、データ保護規制を動機とした大規模言語モデルのための機械学習の研究に焦点をあてる。
我々はtextbfUntextbflearning (SPUL) のための textbfSoft textbfPrompting フレームワークを提案する。
本研究では,提案手法の厳密な評価を行い,SPULが実用性と忘れとのトレードオフを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2024-06-17T19:11:40Z) - Towards Efficient and Effective Unlearning of Large Language Models for Recommendation [46.599206847535676]
我々は, LLMunderlineRec に対する最初のアンダーライン効率とアンダーライン効果のアンダーラインアンラーニング法である textbfE2URec を提案する。
E2URecは、いくつかのLoRAパラメータだけを更新することで、未学習の効率を向上し、教師と学生のフレームワークを利用することで、未学習の効率を向上させる。
論文 参考訳(メタデータ) (2024-03-06T08:31:35Z) - Continual Learning for Large Language Models: A Survey [95.79977915131145]
大規模言語モデル(LLM)は、大規模なトレーニングコストが高いため、頻繁な再トレーニングには適さない。
本稿では,LLMの連続学習に関する最近の研究について述べる。
論文 参考訳(メタデータ) (2024-02-02T12:34:09Z) - Representation Learning with Large Language Models for Recommendation [34.46344639742642]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z) - Reflection-Tuning: Data Recycling Improves LLM Instruction-Tuning [79.32236399694077]
トレーニングセットの低品質データは、通常、チューニングのチューニングに有害である。
我々は「反射チューニング」と呼ばれる新しい手法を提案する。
このアプローチでは、オラクルLSMを使用して、データ内の命令や応答の質を検査し、向上することで、元のトレーニングデータをリサイクルする。
論文 参考訳(メタデータ) (2023-10-18T05:13:47Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [43.270424225285105]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。