論文の概要: Lifelong Personalized Low-Rank Adaptation of Large Language Models for Recommendation
- arxiv url: http://arxiv.org/abs/2408.03533v2
- Date: Sun, 11 Aug 2024 09:08:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 20:04:01.760457
- Title: Lifelong Personalized Low-Rank Adaptation of Large Language Models for Recommendation
- Title(参考訳): 推薦のための大規模言語モデルの生涯パーソナライズされた低ランク適応
- Authors: Jiachen Zhu, Jianghao Lin, Xinyi Dai, Bo Chen, Rong Shan, Jieming Zhu, Ruiming Tang, Yong Yu, Weinan Zhang,
- Abstract要約: 我々は、推奨のために大規模言語モデル(LLM)の分野に焦点を当てる。
ユーザ毎に独立したLoRAを管理するPersonalized LoRAモジュールを組み込んだRecLoRAを提案する。
また、Few2Many Learning Strategyを設計し、従来のレコメンデーションモデルをレンズとして使用して、小さなトレーニングスペースをフルスペースに拡大する。
- 参考スコア(独自算出の注目度): 50.837277466987345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We primarily focus on the field of large language models (LLMs) for recommendation, which has been actively explored recently and poses a significant challenge in effectively enhancing recommender systems with logical reasoning abilities and open-world knowledge. Current mainstream efforts mainly center around injecting personalized information from recommendation models into LLMs by customizing input templates or aligning representations between semantic and recommendation spaces at the prediction layer. However, they face three significant limitations: (1) LoRA is mostly used as a core component in existing works, but personalization is not well established in LoRA parameters as the LoRA matrix shared by every user may not cater to different users' characteristics, leading to suboptimal performance. (2) Although lifelong personalized behavior sequences are ideal for personalization, their use raises effectiveness and efficiency issues since LLMs require escalating training and inference time to extend text lengths. (3) Existing approaches aren't scalable for large datasets due to training efficiency constraints. Thus, LLMs only see a small fraction of the datasets (e.g., less than 10%) instead of the whole datasets, limiting their exposure to the full training space. To address these problems, we propose RecLoRA. This model incorporates a Personalized LoRA module that maintains independent LoRAs for different users and a Long-Short Modality Retriever that retrieves different history lengths for different modalities, significantly improving performance while adding minimal time cost. Furthermore, we design a Few2Many Learning Strategy, using a conventional recommendation model as a lens to magnify small training spaces to full spaces. Extensive experiments on public datasets demonstrate the efficacy of our RecLoRA compared to existing baseline models.
- Abstract(参考訳): 我々は、最近積極的に研究され、論理的推論能力とオープンワールド知識を備えたレコメンダシステムを効果的に強化する上で、重要な課題となっている、リコメンデーションのための大規模言語モデル(LLM)の分野に主に焦点を当てている。
現在の主流の取り組みは、入力テンプレートをカスタマイズしたり、予測層におけるセマンティックとレコメンデーション空間間の表現を調整することで、レコメンデーションモデルからLLMにパーソナライズされた情報を注入することを中心にしている。
1) LoRAは既存の作業のコアコンポーネントとして主に使用されているが、LoRAパラメータではパーソナライズが十分に確立されていない。
2)生涯にわたるパーソナライズ行動シーケンスはパーソナライズに理想的であるが,LLMはテキストの長さを延長するためにトレーニングと推論のエスカレーションを必要とするため,有効性と効率の問題を提起する。
(3) 既存のアプローチは、トレーニング効率の制約のため、大規模なデータセットには拡張性がない。
従って、LLMはデータセット全体ではなく、データセットのごく一部(例:10%未満)しか見ることができず、完全なトレーニングスペースへの露出を制限することができる。
これらの問題に対処するため、RecLoRAを提案する。
このモデルにはパーソナライズされたLoRAモジュールが組み込まれており、異なるユーザに対して独立したLoRAをメンテナンスし、異なるモダリティに対して異なる履歴長を検索し、最小の時間コストを追加しながらパフォーマンスを大幅に改善するLong-Short Modality Retrieverが組み込まれている。
さらに、Few2Manyラーニング戦略を設計し、従来のレコメンデーションモデルをレンズとして使用して、小さなトレーニングスペースをフルスペースに拡大する。
公開データセットに関する大規模な実験は、既存のベースラインモデルと比較して、RecLoRAの有効性を示している。
関連論文リスト
- Disentangling Length Bias In Preference Learning Via Response-Conditioned Modeling [87.17041933863041]
本稿では,応答条件付きBradley-Terryモデルを提案する。
また、大規模言語モデルの直接ポリシー最適化(DPO)にRc-BTモデルを利用するRc-DPOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-02T14:50:25Z) - Full-Stack Optimized Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [44.685176786857284]
データ、プロンプト、パラメータレベルの最適化を提供するフレームワークであるReLLaX(Retrieval-enhanced Large Language Model Plus)を提案する。
データレベルではSemantic User Behavior Retrieval (SUBR)を導入し、シーケンスの不均一性を低減し、LLMがキー情報を抽出しやすくする。
素早いレベル向上のために、我々はSPA(Soft Prompt Augmentation)を用いて協調的な知識を注入し、項目表現をレコメンデーションタスクと整合させる。
パラメータレベルでは、コンポーネント間の相互作用を有効にすることで、LoRAの表現性を向上するComponent Fully-Interactive LoRA(CFLoRA)を提案する。
論文 参考訳(メタデータ) (2025-01-23T03:05:13Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Unified Parameter-Efficient Unlearning for LLMs [25.195126838721492]
大規模言語モデル(LLM)は自然言語処理に革命をもたらし、様々なタスクに対する高度な理解と推論を可能にする。
これは、モデルが不注意に機密情報や望ましくない情報を保持および拡散する可能性があるため、重要なプライバシーとセキュリティ上の懸念を提起する。
本稿では,非学習タスクを体系的に分類し,影響関数を用いた高精度な調整を行う,新しいインスタンス単位のアンラーニングフレームワークLLMEraserを紹介する。
論文 参考訳(メタデータ) (2024-11-30T07:21:02Z) - MTL-LoRA: Low-Rank Adaptation for Multi-Task Learning [74.43869839954168]
マルチタスク学習能力を大幅に向上させながら、低ランク適応の利点を保ちながら、MTL-LoRAを提案する。
MTL-LoRAは、タスク固有の情報を識別するタスク適応パラメータを追加することでLoRAを強化する。
このアプローチにより、汎用コーパス上で事前訓練された大規模言語モデル(LLM)が、限られた数のトレーニング可能なパラメータで異なるターゲットタスクドメインに適応できる。
論文 参考訳(メタデータ) (2024-10-12T08:32:26Z) - Aligning Large Language Models with Self-generated Preference Data [72.99676237703099]
大規模言語モデル(LLM)と人間の嗜好との整合性を高める新しいフレームワークを提案する。
私たちのキーとなるアイデアは、小さな(種)データの中で人間の事前知識を活用することです。
本稿では,ノイズ認識型選好学習アルゴリズムを導入し,生成した選好データにおける品質低下のリスクを軽減する。
論文 参考訳(メタデータ) (2024-06-06T18:01:02Z) - SLMRec: Distilling Large Language Models into Small for Sequential Recommendation [38.51895517016953]
シーケンシャルレコメンデーションタスクでは、過去のインタラクションを考慮して、ユーザが対話する可能性のある次の項目を予測する。
最近の研究は、LCMがシーケンシャルレコメンデーションシステムに与える影響を実証している。
LLM の巨大なサイズのため、現実のプラットフォームに LLM ベースのモデルを適用するのは非効率で実用的ではない。
論文 参考訳(メタデータ) (2024-05-28T07:12:06Z) - Multi-Reference Preference Optimization for Large Language Models [56.84730239046117]
複数の参照モデルを用いた直接選好最適化のための新しいクローズドフォームの定式化を提案する。
得られたアルゴリズムであるMulti-Reference Preference Optimization (MRPO)は、様々な参照モデルからより広範な事前知識を活用する。
MRPOを微調整したLLMは,データ不足や多量性に関わらず,様々な嗜好データにおいてより一般化されていることを示す。
論文 参考訳(メタデータ) (2024-05-26T00:29:04Z) - Differentially Private Low-Rank Adaptation of Large Language Model Using Federated Learning [32.52811740662061]
本稿では,大規模言語モデル(LLM)に適した新しいフェデレーション学習アルゴリズムDP-LoRAを紹介する。
DP-LoRAは、重み付け更新のノイズを追加し、データプライバシを個別に維持しつつ、協調的なモデルトレーニングを容易にするガウス機構を使用することで、データのプライバシを保存する。
論文 参考訳(メタデータ) (2023-12-29T06:50:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。