論文の概要: Unleashing the Power of Large Language Models for Group POI Recommendations
- arxiv url: http://arxiv.org/abs/2411.13415v1
- Date: Wed, 20 Nov 2024 16:02:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:11:26.956068
- Title: Unleashing the Power of Large Language Models for Group POI Recommendations
- Title(参考訳): グループPOIレコメンデーションのための大規模言語モデルのパワーの解放
- Authors: Jing Long, Liang Qu, Guanhua Ye, Tong Chen, Quoc Viet Hung Nguyen, Hongzhi Yin,
- Abstract要約: Group Point-of-Interest(POI)推奨は、あるグループのユーザの多様な嗜好を満たす次のPOIを予測することを目的としている。
グループPOIレコメンデーションの既存の方法は、チェックインデータからの単一のIDベースの機能に依存している。
文脈認識グループPOIレコメンデーションのためのLarge Language Model(LLM)のパワーを解放するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 39.49785677738477
- License:
- Abstract: Group Point-of-Interest (POI) recommendations aim to predict the next POI that satisfies the diverse preferences of a group of users. This task is more challenging than traditional individual POI recommendations due to complex group decision-making and extremely sparse group-level check-in data. Existing methods for group POI recommendations primarily rely on single ID-based features from check-in data, capturing only statistical correlations and failing to fully utilize the rich semantic information contained in the check-ins, resulting in suboptimal performance. To this end, we propose a framework that unleashes the power of the Large Language Model (LLM) for context-aware group POI recommendations (LLMGPR). Our approach first introduces POI tokens alongside the original word tokens of the LLM, which are initialized by applying the LLM to the rich information of each POI. We then propose a novel sequencing adapter guided by Quantized Low-Rank Adaptation (QLORA) to modify the LLM. The enhanced LLM can learn sequence representations by combining semantic-enhanced POI tokens and rich contextual information including positional encodings and spatio-temporal differences. This approach can be adapted for learning either group or user representations depending on the sequence type. Furthermore, we enhance group representations by aggregating individual member representations with another QLORA-based aggregation adapter and introducing a self-supervised learning task that predicts the purpose of check-in sequences, alleviating the data sparsity issue. Our experimental results demonstrate that LLMGPR outperforms existing methods, effectively addressing group-level data sparsity and providing superior recommendations.
- Abstract(参考訳): Group Point-of-Interest(POI)推奨は、あるグループのユーザの多様な嗜好を満たす次のPOIを予測することを目的としている。
このタスクは、複雑なグループ決定と非常にまばらなグループレベルのチェックインデータのために、従来のPOIレコメンデーションよりも難しい。
グループPOIレコメンデーションの既存の方法は、主にチェックインデータからの1つのIDベースの特徴に依存し、統計的相関のみをキャプチャし、チェックインに含まれる豊富な意味情報を十分に活用することができず、結果として準最適性能をもたらす。
この目的のために,文脈対応グループPOIレコメンデーション(LLMGPR)のためのLarge Language Model(LLM)のパワーを解放するフレームワークを提案する。
提案手法はまず,各POIの豊富な情報に LLM を適用して初期化する LLM の本来の単語トークンと並行して POI トークンを導入する。
次に、LLMを変更するために、QLORA(Quantized Low-Rank Adaptation)によって導かれる新しいシーケンシングアダプタを提案する。
拡張LDMは、セマンティックエンハンスメントされたPOIトークンと、位置エンコーディングや時空間差を含むリッチなコンテキスト情報を組み合わせることでシーケンス表現を学習することができる。
このアプローチは、シーケンスタイプに応じてグループまたはユーザ表現を学習するために適用することができる。
さらに、個別のメンバ表現を別のQLORAベースのアグリゲーションアダプタで集約し、チェックインシーケンスの目的を予測する自己教師付き学習タスクを導入し、データ空間の問題を軽減することで、グループ表現を強化する。
実験の結果,LLMGPRは既存の手法よりも優れており,グループレベルのデータの分散を効果的に解決し,優れたレコメンデーションを提供することがわかった。
関連論文リスト
- Self-Calibrated Listwise Reranking with Large Language Models [137.6557607279876]
大規模言語モデル (LLM) はシーケンシャル・ツー・シーケンス・アプローチによってタスクのランク付けに使用されている。
この階調のパラダイムは、より大きな候補集合を反復的に扱うためにスライディングウインドウ戦略を必要とする。
そこで本稿では,LLMを用いた自己校正リストのランク付け手法を提案する。
論文 参考訳(メタデータ) (2024-11-07T10:31:31Z) - Token-level Proximal Policy Optimization for Query Generation [45.81132350185301]
State-of-the-art query generation methodは、文脈理解とテキスト生成における強力な能力にLarge Language Models(LLM)を利用する。
そこで本稿では,LLMのクエリ生成性能向上を目的としたノバルアプローチである,TOken-level Proximal Policy Optimization (TPPO)を提案する。
TPPOはReinforcement Learning from AI Feedback (RLAIF)パラダイムに基づいており、トークンレベルの報酬モデルとトークンレベルのポリシー最適化モジュールで構成されている。
論文 参考訳(メタデータ) (2024-11-01T16:36:14Z) - GenCRF: Generative Clustering and Reformulation Framework for Enhanced Intent-Driven Information Retrieval [20.807374287510623]
我々は,多種多様な意図を適応的に捉えるための生成クラスタリング・改革フレームワークGenCRFを提案する。
我々はGenCRFが,nDCG@10で従来のクエリ修正SOTAを最大12%上回り,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-09-17T05:59:32Z) - Reindex-Then-Adapt: Improving Large Language Models for Conversational Recommendation [50.19602159938368]
大規模言語モデル(LLM)は、会話レコメンデーションシステムに革命をもたらしている。
本稿では,マルチトークンのタイトルを単一トークンに変換するReindex-Then-Adapt(RTA)フレームワークを提案する。
本フレームワークでは,3つの対話推薦データセットの精度向上を実証する。
論文 参考訳(メタデータ) (2024-05-20T15:37:55Z) - P-ICL: Point In-Context Learning for Named Entity Recognition with Large Language Models [7.037794031385439]
近年,大規模な言語モデル (LLM) の台頭により,実演サンプルを使わずに名前付きエンティティ認識 (NER) を直接実現できるようになった。
標準ICLは、LLMがタスク命令、フォーマット、入力ラベルマッピングを理解するのにのみ役立つが、NERタスク自体の特異性を無視する。
LLMでNERをよりよく実現するための新しいプロンプトフレームワークであるP-ICLを提案する。
論文 参考訳(メタデータ) (2024-05-08T11:01:21Z) - Relative Preference Optimization: Enhancing LLM Alignment through Contrasting Responses across Identical and Diverse Prompts [95.09994361995389]
Relative Preference Optimization (RPO) は、同一のプロンプトと関連するプロンプトの両方から、より多く、あまり好まれない応答を識別するように設計されている。
RPOは、大きな言語モデルをユーザの好みに合わせて調整し、トレーニングプロセスにおける適応性を改善する優れた能力を示している。
論文 参考訳(メタデータ) (2024-02-12T22:47:57Z) - Group Preference Optimization: Few-Shot Alignment of Large Language Models [28.464834028110538]
グループ優先最適化(Group Preference Optimization)は、言語モデルを数ショットで個々のグループを選好する。
大規模言語モデルを用いた厳密な評価により, GPOの有効性を実証的に検証した。
以上の結果から,GPOはモデルをより正確に整合させるだけでなく,グループ固有の嗜好を少なくし,トレーニングや推論のリソースを少なくする。
論文 参考訳(メタデータ) (2023-10-17T18:41:57Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z) - Overcoming Data Sparsity in Group Recommendation [52.00998276970403]
グループレコメンデータシステムは、ユーザの個人的な好みだけでなく、嗜好集約戦略も正確に学習できなければならない。
本稿では,BGEM(Bipartite Graphding Model)とGCN(Graph Convolutional Networks)を基本構造として,グループとユーザ表現を統一的に学習する。
論文 参考訳(メタデータ) (2020-10-02T07:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。