論文の概要: MRP-LLM: Multitask Reflective Large Language Models for Privacy-Preserving Next POI Recommendation
- arxiv url: http://arxiv.org/abs/2412.07796v1
- Date: Tue, 03 Dec 2024 09:45:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-15 07:33:11.669594
- Title: MRP-LLM: Multitask Reflective Large Language Models for Privacy-Preserving Next POI Recommendation
- Title(参考訳): MRP-LLM: プライバシ保護のためのマルチタスク反射型大規模言語モデル
- Authors: Ziqing Wu, Zhu Sun, Dongxia Wang, Lu Zhang, Jie Zhang, Yew Soon Ong,
- Abstract要約: 大規模言語モデル(LLM)は、次のPoint-of-Interest(POI)レコメンデーションに有望な可能性を示している。
プライバシ保護のための新しいマルチタスク反射型大規模言語モデル(MRP-LLM)を提案する。
- 参考スコア(独自算出の注目度): 29.622713464648086
- License:
- Abstract: Large language models (LLMs) have shown promising potential for next Point-of-Interest (POI) recommendation. However, existing methods only perform direct zero-shot prompting, leading to ineffective extraction of user preferences, insufficient injection of collaborative signals, and a lack of user privacy protection. As such, we propose a novel Multitask Reflective Large Language Model for Privacy-preserving Next POI Recommendation (MRP-LLM), aiming to exploit LLMs for better next POI recommendation while preserving user privacy. Specifically, the Multitask Reflective Preference Extraction Module first utilizes LLMs to distill each user's fine-grained (i.e., categorical, temporal, and spatial) preferences into a knowledge base (KB). The Neighbor Preference Retrieval Module retrieves and summarizes the preferences of similar users from the KB to obtain collaborative signals. Subsequently, aggregating the user's preferences with those of similar users, the Multitask Next POI Recommendation Module generates the next POI recommendations via multitask prompting. Meanwhile, during data collection, a Privacy Transmission Module is specifically devised to preserve sensitive POI data. Extensive experiments on three real-world datasets demonstrate the efficacy of our proposed MRP-LLM in providing more accurate next POI recommendations with user privacy preserved.
- Abstract(参考訳): 大規模言語モデル(LLM)は、次のPoint-of-Interest(POI)レコメンデーションに有望な可能性を示している。
しかし、既存の手法は直接ゼロショットプロンプトしか実行せず、ユーザの好みの非効率な抽出、協調的なシグナルの注入の不十分、ユーザのプライバシー保護の欠如につながっている。
そこで我々は,ユーザプライバシを保ちつつ,LLMをよりよい次世代POIレコメンデーションに活用することを目的として,プライバシ保護のための新しいマルチタスク反射型大規模言語モデル(MRP-LLM)を提案する。
特に、Multitask Reflective Preference extract Module は、まず LLM を使用して、各ユーザの細粒度(カテゴリー、時間、空間)の好みを知識ベース(KB)に抽出する。
Neighbor Preference Retrieval ModuleはKBから類似したユーザの好みを検索して要約し、協調的な信号を得る。
その後、ユーザと類似ユーザとの好みを集約し、Multitask Next POI Recommendation Moduleは、マルチタスクプロンプトを通じて次のPOIレコメンデーションを生成する。
一方、データ収集の間、プライバシ送信モジュールは機密性の高いPOIデータを保存するために特別に設計されている。
3つの実世界のデータセットに対する大規模な実験は、提案したMPP-LLMの有効性を示し、ユーザのプライバシを保存することで、より正確なPOIレコメンデーションを提供する。
関連論文リスト
- Laser: Parameter-Efficient LLM Bi-Tuning for Sequential Recommendation with Collaborative Information [76.62949982303532]
協調情報を用いた逐次レコメンデーションのためのパラメータ効率の高い大規模言語モデルバイチューニングフレームワーク(Laser)を提案する。
我々のレーザーでは,プレフィックスを用いてユーザと協調的な情報を取り込み,LLMをレコメンデーションタスクに適応させ,サフィックスは言語空間からレコメンデーションスペースへのLLMの出力埋め込みをリコメンデーション項目レコメンデーションスペースに変換する。
M-Formerは軽量なMoEベースのクエリ変換器で、クエリ専門家のセットを使用して、凍結IDベースのシーケンシャルレコメンデータシステムによって符号化された多様なユーザ固有の協調情報を統合する。
論文 参考訳(メタデータ) (2024-09-03T04:55:03Z) - Preference Distillation for Personalized Generative Recommendation [11.27949757550442]
本稿では,PErson Alized PrOmpt Distillation (PeaPOD)アプローチを提案する。
現実世界におけるユーザの嗜好の複雑さを考えると,ユーザの興味に基づいて動的に重み付けされる学習可能なプロンプトの共有集合を維持している。
実世界の3つのデータセットに対する実験結果から,PiaPODモデルがシーケンシャルレコメンデーション,トップnレコメンデーション,説明生成タスクに与える影響が示された。
論文 参考訳(メタデータ) (2024-07-06T09:58:58Z) - On Softmax Direct Preference Optimization for Recommendation [50.896117978746]
そこで我々は,LMをベースとした推奨項目の識別を支援するために,ランキング情報をLMに挿入するソフトマックスDPO(S-DPO)を提案する。
具体的には、ユーザの嗜好データに複数の負を組み込んで、LMベースのレコメンデータに適したDPO損失の代替版を考案する。
論文 参考訳(メタデータ) (2024-06-13T15:16:11Z) - Multi-Reference Preference Optimization for Large Language Models [56.84730239046117]
複数の参照モデルを用いた直接選好最適化のための新しいクローズドフォームの定式化を提案する。
得られたアルゴリズムであるMulti-Reference Preference Optimization (MRPO)は、様々な参照モデルからより広範な事前知識を活用する。
MRPOを微調整したLLMは,データ不足や多量性に関わらず,様々な嗜好データにおいてより一般化されていることを示す。
論文 参考訳(メタデータ) (2024-05-26T00:29:04Z) - On Generative Agents in Recommendation [58.42840923200071]
Agent4Recは、Large Language Modelsに基づいたレコメンデーションのユーザーシミュレータである。
各エージェントは、ページ単位でパーソナライズされた推奨モデルと対話する。
論文 参考訳(メタデータ) (2023-10-16T06:41:16Z) - GenRec: Large Language Model for Generative Recommendation [41.22833600362077]
本稿では,テキストデータに基づく大規模言語モデル(LLM)を用いたレコメンデーションシステムに対する革新的なアプローチを提案する。
GenRecはLLMの理解機能を使ってコンテキストを解釈し、ユーザの好みを学習し、関連するレコメンデーションを生成する。
本研究は,レコメンデーションシステムの領域に革命をもたらす上で,LLMに基づくジェネレーティブレコメンデーションの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-02T02:37:07Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z) - Zero-Shot Next-Item Recommendation using Large Pretrained Language
Models [16.14557830316297]
我々は,Zero-Shot Next-Item Recommendation (NIR) と呼ばれるプロンプト戦略を提案する。
我々の戦略は、GPT-3がユーザの好みを捉えたサブタスクを運ぶための3段階のプロンプトを取り入れている。
The proposed approach using GPT-3 on MovieLens 100K dataset and show that it achieved to strong zero-shot performance。
論文 参考訳(メタデータ) (2023-04-06T15:35:11Z) - Empowering Next POI Recommendation with Multi-Relational Modeling [27.27372864066066]
位置情報ベースのソーシャルネットワーク(LBSN)は、個人レベルの位置情報関連の大規模活動と体験を提供する。
次の関心のポイント(POI)レコメンデーションは、LBSNにおける最も重要なタスクの1つである。
マルチネットワーク表現学習モジュールとの異種関係を効果的に活用する新しいフレームワークMEMOを提案する。
論文 参考訳(メタデータ) (2022-04-24T21:51:29Z) - Sequential Recommendation with Self-Attentive Multi-Adversarial Network [101.25533520688654]
逐次レコメンデーションにおける文脈情報の影響を明示的にモデル化するためのMFGAN(Multi-Factor Generative Adversarial Network)を提案する。
当社のフレームワークは,複数種類の因子情報を組み込むことが柔軟であり,各因子が推奨決定にどのように貢献するかを時間とともに追跡することができる。
論文 参考訳(メタデータ) (2020-05-21T12:28:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。