論文の概要: GenUP: Generative User Profilers as In-Context Learners for Next POI Recommender Systems
- arxiv url: http://arxiv.org/abs/2410.20643v1
- Date: Mon, 28 Oct 2024 00:39:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 11:30:34.632591
- Title: GenUP: Generative User Profilers as In-Context Learners for Next POI Recommender Systems
- Title(参考訳): GenUP: 次世代POIレコメンダシステムのためのコンテキスト学習者としての生成ユーザプロファイラ
- Authors: Wilson Wongso, Hao Xue, Flora D. Salim,
- Abstract要約: 従来のPOIレコメンデーションシステムは、透明性、解釈可能性、精査性に欠けることが多い。
本稿では,LBSNの大規模チェックインから自然言語(NL)ユーザプロファイルを生成する手法を提案する。
これらのNLプロファイルは、ユーザの好み、ルーチン、振る舞いをキャプチャし、透明性を高めながらPOI予測精度を改善する。
- 参考スコア(独自算出の注目度): 8.789624590579903
- License:
- Abstract: Traditional POI recommendation systems often lack transparency, interpretability, and scrutability due to their reliance on dense vector-based user embeddings. Furthermore, the cold-start problem -- where systems have insufficient data for new users -- limits their ability to generate accurate recommendations. Existing methods often address this by leveraging similar trajectories from other users, but this approach can be computationally expensive and increases the context length for LLM-based methods, making them difficult to scale. To address these limitations, we propose a method that generates natural language (NL) user profiles from large-scale, location-based social network (LBSN) check-ins, utilizing robust personality assessments and behavioral theories. These NL profiles capture user preferences, routines, and behaviors, improving POI prediction accuracy while offering enhanced transparency. By incorporating NL profiles as system prompts to LLMs, our approach reduces reliance on extensive historical data, while remaining flexible, easily updated, and computationally efficient. Our method is not only competitive with other LLM-based and complex agentic frameworks but is also more scalable for real-world scenarios and on-device POI recommendations. Results demonstrate that our approach consistently outperforms baseline methods, offering a more interpretable and resource-efficient solution for POI recommendation systems. Our source code is available at: \url{https://github.com/w11wo/GenUP}.
- Abstract(参考訳): 従来のPOIレコメンデーションシステムは、高密度なベクトルベースのユーザ埋め込みに依存しているため、透明性、解釈可能性、精査性に欠けることが多い。
さらに、新しいユーザーのためのデータが不十分なコールドスタート問題は、正確なレコメンデーションを生成する能力を制限している。
既存の手法は、他のユーザからの類似のトラジェクトリを活用することで、この問題に対処することが多いが、このアプローチは計算コストが高く、LLMベースの手法のコンテキスト長が大きくなるため、拡張が困難である。
これらの制約に対処するために、ロバストな性格評価と行動理論を利用して、大規模かつ位置対応のソーシャルネットワーク(LBSN)チェックインから自然言語(NL)ユーザプロファイルを生成する手法を提案する。
これらのNLプロファイルは、ユーザの好み、ルーチン、振る舞いをキャプチャし、透明性を高めながらPOI予測精度を改善する。
LLMへのシステムプロンプトとしてNLプロファイルを組み込むことにより、我々のアプローチは、柔軟で容易に更新され、計算的に効率的でありながら、広範な履歴データへの依存を減らすことができる。
我々の手法は他のLLMベースの複雑なエージェントフレームワークと競合するだけでなく、現実世界のシナリオやデバイス上でのPOIレコメンデーションにもよりスケーラブルである。
提案手法は,POIレコメンデーションシステムに対して,より解釈可能な,リソース効率の高いソリューションを提供するとともに,ベースライン手法よりも一貫して優れていることを示す。
ソースコードは以下の通りである。
関連論文リスト
- FedDTPT: Federated Discrete and Transferable Prompt Tuning for Black-Box Large Language Models [14.719919025265224]
特定のシナリオからのデータを調整した大きな言語モデル(LLM)は、プライバシリークのリスクを引き起こす。
ブラックボックス大言語モデルに対して,フェデレートされた離散的かつ転送可能なプロンプトチューニングであるFedDTPTを初めて提案する。
提案手法は,ブラックボックス設定における非IDデータに対する高い精度,通信オーバーヘッドの低減,ロバスト性を実現する。
論文 参考訳(メタデータ) (2024-11-01T19:19:23Z) - Data Imputation using Large Language Model to Accelerate Recommendation System [3.853804391135035]
そこで本稿では,LLM(Large-Tune Large Language Model)を提案する。
大量のテキストで訓練されたLLMは、データ間の複雑な関係を理解し、行方不明の情報をインテリジェントに埋めることができる。
この強化されたデータは、より正確でパーソナライズされた提案を生成するためにレコメンデーションシステムによって使用される。
論文 参考訳(メタデータ) (2024-07-14T04:53:36Z) - Cost-Effective Proxy Reward Model Construction with On-Policy and Active Learning [70.22819290458581]
人間のフィードバックによる強化学習(RLHF)は、現在の大規模言語モデルパイプラインにおいて広く採用されているアプローチである。
提案手法では,(1)OODを回避するためのオン・ポリシー・クエリと,(2)プライオリティ・クエリの最も情報性の高いデータを選択するためのアクティブ・ラーニングという2つの重要なイノベーションを導入している。
論文 参考訳(メタデータ) (2024-07-02T10:09:19Z) - Contrastive Policy Gradient: Aligning LLMs on sequence-level scores in a supervised-friendly fashion [44.95386817008473]
コントラストポリシーグラディエント(Contrastive Policy Gradient, COPG)は、単純かつ数学的に原理化された新しいRLアルゴリズムである。
本稿では,直接アライメント手法のIPO(アイデンティティ優先最適化)と古典的政策勾配を一般化する手法を提案する。
提案したCOPGをおもちゃのバンディット問題で実験し,その特性を説明するとともに,要約タスクでLLMを微調整する。
論文 参考訳(メタデータ) (2024-06-27T14:03:49Z) - Self-Augmented Preference Optimization: Off-Policy Paradigms for Language Model Alignment [104.18002641195442]
既存のペアデータを必要としない、効果的でスケーラブルなトレーニングパラダイムである自己拡張型優先度最適化(SAPO)を導入する。
負の反応を自律的に生成するセルフプレイの概念に基づいて、我々はさらに、データ探索とエクスプロイトを強化するために、非政治的な学習パイプラインを組み込む。
論文 参考訳(メタデータ) (2024-05-31T14:21:04Z) - Bayesian Optimization with LLM-Based Acquisition Functions for Natural Language Preference Elicitation [18.550311424902358]
大規模言語モデル(LLM)は、完全な自然言語(NL)PE対話を可能にする。
ユーザの好みの発話とNL項目記述の間で自然言語推論(NLI)を利用する新しいNL-PEアルゴリズムであるPEBOLを提案する。
PEBOLは最大0.27のMRR@10を達成できるのに対し、最高のモノリシックLCMベースラインのMRR@10は0.17のMRR@10を達成できる。
論文 参考訳(メタデータ) (2024-05-02T03:35:21Z) - Fine-Tuning Language Models with Reward Learning on Policy [68.70065254564642]
人間からのフィードバックからの強化学習(RLHF)は、大きな言語モデル(LLM)を人間の好みに合わせる効果的なアプローチとして現れている。
その人気にもかかわらず、(固定された)報酬モデルが不正確な流通に悩まされることがある。
本稿では、政策サンプルを用いて報酬モデルを洗練し、流通を継続する、教師なしのフレームワークであるポリシーに関する報酬学習(RLP)を提案する。
論文 参考訳(メタデータ) (2024-03-28T10:02:10Z) - Relative Preference Optimization: Enhancing LLM Alignment through Contrasting Responses across Identical and Diverse Prompts [95.09994361995389]
Relative Preference Optimization (RPO) は、同一のプロンプトと関連するプロンプトの両方から、より多く、あまり好まれない応答を識別するように設計されている。
RPOは、大きな言語モデルをユーザの好みに合わせて調整し、トレーニングプロセスにおける適応性を改善する優れた能力を示している。
論文 参考訳(メタデータ) (2024-02-12T22:47:57Z) - Self-supervised Graph-based Point-of-interest Recommendation [66.58064122520747]
Next Point-of-Interest (POI)レコメンデーションは、ロケーションベースのeコマースにおいて重要なコンポーネントとなっている。
自己教師付きグラフ強化POIレコメンデーション(S2GRec)を次のPOIレコメンデーションのために提案する。
特に,グローバル・トランジション・グラフと局所軌道グラフの両方からの協調的な信号を組み込むために,グラフ強化セルフアテンテート・レイヤを考案した。
論文 参考訳(メタデータ) (2022-10-22T17:29:34Z) - Improving Long-Term Metrics in Recommendation Systems using
Short-Horizon Offline RL [56.20835219296896]
セッションベースのレコメンデーションシナリオについて検討し、シーケンシャルなインタラクションの間、ユーザに対してアイテムを推薦し、長期的なユーティリティを改善する。
我々は、セッション間のポリシーによる分散シフトを近似するショートホライズンポリシー改善(SHPI)と呼ばれる新しいバッチRLアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-01T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。