論文の概要: Joint Triplet Loss Learning for Next New POI Recommendation
- arxiv url: http://arxiv.org/abs/2209.12162v1
- Date: Sun, 25 Sep 2022 06:25:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 15:12:03.346594
- Title: Joint Triplet Loss Learning for Next New POI Recommendation
- Title(参考訳): 新たなPOI勧告のための共同トリプルト損失学習
- Authors: Nicholas Lim, Bryan Hooi, See-Kiong Ng, Yong Liang Goh
- Abstract要約: 本稿では,Next New(N2$) POIレコメンデーションタスクに対して,JTLL(Joint Triplet Loss Learning)モジュールを提案する。
我々のJTLLモジュールは、まず、ユーザの過去のPOI訪問シーケンスから追加のトレーニングサンプルを計算し、その後、POIとユーザ埋め込みの距離を減らし増加させるように設計された三重項損失関数を提案する。
次に、JTLLモジュールは、リコメンデーションタスクの未確認の関係を学習するために、最近のアプローチと共同で訓練されている。
- 参考スコア(独自算出の注目度): 24.691239350116827
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparsity of the User-POI matrix is a well established problem for next POI
recommendation, which hinders effective learning of user preferences. Focusing
on a more granular extension of the problem, we propose a Joint Triplet Loss
Learning (JTLL) module for the Next New ($N^2$) POI recommendation task, which
is more challenging. Our JTLL module first computes additional training samples
from the users' historical POI visit sequence, then, a designed triplet loss
function is proposed to decrease and increase distances of POI and user
embeddings based on their respective relations. Next, the JTLL module is
jointly trained with recent approaches to additionally learn unvisited
relations for the recommendation task. Experiments conducted on two known
real-world LBSN datasets show that our joint training module was able to
improve the performances of recent existing works.
- Abstract(参考訳): User-POI行列のスポーサリティは、ユーザの好みを効果的に学習するのを妨げる、次のPOIレコメンデーションの確立した問題である。
本稿では,問題のより詳細な拡張に着目し,新たなpoiレコメンデーションタスク(n^2$)のための統合三重項損失学習(jtll)モジュールを提案する。
我々のJTLLモジュールは、まず、ユーザの過去のPOI訪問シーケンスから追加のトレーニングサンプルを計算し、それぞれの関係に基づいてPOIとユーザ埋め込みの距離を減らし増加させるように設計された三重項損失関数を提案する。
次に、JTLLモジュールは、リコメンデーションタスクの未確認の関係を学習するために、最近のアプローチと共同で訓練されている。
2つの実世界のLBSNデータセットで実施された実験により、我々のジョイントトレーニングモジュールは、最近の既存の作品のパフォーマンスを向上させることができた。
関連論文リスト
- LIBER: Lifelong User Behavior Modeling Based on Large Language Models [42.045535303737694]
大規模言語モデルに基づく生涯ユーザ行動モデリング(LIBER)を提案する。
LIBERはHuaweiの音楽レコメンデーションサービスにデプロイされ、ユーザーの再生回数と再生時間の3.01%と7.69%を大幅に改善した。
論文 参考訳(メタデータ) (2024-11-22T03:43:41Z) - Unleashing the Power of Large Language Models for Group POI Recommendations [39.49785677738477]
Group Point-of-Interest(POI)推奨は、あるグループのユーザの多様な嗜好を満たす次のPOIを予測することを目的としている。
グループPOIレコメンデーションの既存の方法は、チェックインデータからの単一のIDベースの機能に依存している。
文脈認識グループPOIレコメンデーションのためのLarge Language Model(LLM)のパワーを解放するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-20T16:02:14Z) - Real-Time Personalization for LLM-based Recommendation with Customized In-Context Learning [57.28766250993726]
この研究は、モデル更新なしに動的なユーザ関心に適応することを検討する。
既存のLarge Language Model (LLM)ベースのレコメンダは、レコメンデーションチューニング中にコンテキスト内学習能力を失うことが多い。
本稿では,レコメンデーション固有のインコンテキスト学習をリアルタイムレコメンデーションにカスタマイズするRecICLを提案する。
論文 参考訳(メタデータ) (2024-10-30T15:48:36Z) - Large Language Models for Next Point-of-Interest Recommendation [53.93503291553005]
位置情報ベースのソーシャルネットワーク(LBSN)データは、しばしば次のPoint of Interest(POI)レコメンデーションタスクに使用される。
しばしば無視される課題の1つは、LBSNデータに存在する豊富なコンテキスト情報を効果的に利用する方法である。
本稿では,この課題に対処するために,LLM(Large Language Models)を用いたフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-19T13:28:36Z) - Adversarial Batch Inverse Reinforcement Learning: Learn to Reward from
Imperfect Demonstration for Interactive Recommendation [23.048841953423846]
我々は、強化学習の基礎となる報奨学習の問題に焦点をあてる。
従来のアプローチでは、報酬を得るための追加の手順を導入するか、最適化の複雑さを増大させる。
所望の特性を実現するために, バッチ逆強化学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-30T13:43:20Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [43.270424225285105]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z) - Zero-shot Item-based Recommendation via Multi-task Product Knowledge
Graph Pre-Training [106.85813323510783]
本稿ではゼロショットアイテムベース勧告(ZSIR)タスクのための新しいパラダイムを提案する。
製品知識グラフ(PKG)のモデルを事前トレーニングして、PLMからアイテム機能を洗練します。
我々は,PKGにおける多型関係,アイテムジェネリック情報と関係のセマンティックな相違,PKGから下流ZSIRタスクへのドメイン差といった,PKG事前学習の課題を3つ挙げる。
論文 参考訳(メタデータ) (2023-05-12T17:38:24Z) - Self-supervised Graph-based Point-of-interest Recommendation [66.58064122520747]
Next Point-of-Interest (POI)レコメンデーションは、ロケーションベースのeコマースにおいて重要なコンポーネントとなっている。
自己教師付きグラフ強化POIレコメンデーション(S2GRec)を次のPOIレコメンデーションのために提案する。
特に,グローバル・トランジション・グラフと局所軌道グラフの両方からの協調的な信号を組み込むために,グラフ強化セルフアテンテート・レイヤを考案した。
論文 参考訳(メタデータ) (2022-10-22T17:29:34Z) - Empowering Next POI Recommendation with Multi-Relational Modeling [27.27372864066066]
位置情報ベースのソーシャルネットワーク(LBSN)は、個人レベルの位置情報関連の大規模活動と体験を提供する。
次の関心のポイント(POI)レコメンデーションは、LBSNにおける最も重要なタスクの1つである。
マルチネットワーク表現学習モジュールとの異種関係を効果的に活用する新しいフレームワークMEMOを提案する。
論文 参考訳(メタデータ) (2022-04-24T21:51:29Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。