論文の概要: SA-LSPL:Sequence-Aware Long- and Short- Term Preference Learning for next POI recommendation
- arxiv url: http://arxiv.org/abs/2404.00367v1
- Date: Sat, 30 Mar 2024 13:40:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 04:10:32.486123
- Title: SA-LSPL:Sequence-Aware Long- and Short- Term Preference Learning for next POI recommendation
- Title(参考訳): SA-LSPL:次のPOIレコメンデーションのためのLong-AwareとShort-Term Preference Learning
- Authors: Bin Wang, Yan Zhang, Yan Ma, Yaohui Jin, Yanyan Xu,
- Abstract要約: Point of Interest(POI)推奨は、特定のタイミングでユーザに対してPOIを推奨することを目的としている。
提案する手法は,SA-LSPL(Sequence-Aware Long- and Short-Term Preference Learning)である。
- 参考スコア(独自算出の注目度): 19.40796508546581
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The next Point of Interest (POI) recommendation aims to recommend the next POI for users at a specific time. As users' check-in records can be viewed as a long sequence, methods based on Recurrent Neural Networks (RNNs) have recently shown good applicability to this task. However, existing methods often struggle to fully explore the spatio-temporal correlations and dependencies at the sequence level, and don't take full consideration for various factors influencing users' preferences. To address these issues, we propose a novel approach called Sequence-Aware Long- and Short-Term Preference Learning (SA-LSPL) for next-POI recommendation. We combine various information features to effectively model users' long-term preferences. Specifically, our proposed model uses a multi-modal embedding module to embed diverse check-in details, taking into account both user's personalized preferences and social influences comprehensively. Additionally, we consider explicit spatio-temporal correlations at the sequence level and implicit sequence dependencies. Furthermore, SA-LSPL learns the spatio-temporal correlations of consecutive and non-consecutive visits in the current check-in sequence, as well as transition dependencies between categories, providing a comprehensive capture of user's short-term preferences. Extensive experiments on two real-world datasets demonstrate the superiority of SA-LSPL over state-of-the-art baseline methods.
- Abstract(参考訳): 次のPoint of Interest(POI)推奨は、特定の時間に次のPOIを推奨することを目的としている。
ユーザのチェックイン記録を長いシーケンスと見なすことができるため、リカレントニューラルネットワーク(RNN)に基づく手法が近年、このタスクに有効であることが示されている。
しかし、既存の手法では、時空間的相関関係や依存関係をシーケンスレベルで完全に調べるのに苦労することが多く、ユーザの嗜好に影響を与える様々な要因を十分に考慮しないことが多い。
これらの課題に対処するため,次回のPOIレコメンデーションのためにSequence-Aware Long- and Short-Term Preference Learning (SA-LSPL) と呼ばれる新しいアプローチを提案する。
我々は,ユーザの長期的嗜好を効果的にモデル化するために,様々な情報機能を組み合わせる。
具体的には,ユーザのパーソナライズされた好みと社会的影響を包括的に考慮し,マルチモーダルな埋め込みモジュールを用いて多様なチェックインの詳細を埋め込む。
さらに、シーケンスレベルと暗黙のシーケンス依存性における明示的な時空間相関について検討する。
さらに、SA-LSPLは、現在のチェックインシーケンスにおける連続的および非連続的な訪問と、カテゴリ間の遷移依存性の時空間的相関を学習し、ユーザの短期的嗜好を包括的に把握する。
2つの実世界のデータセットに対する大規模な実験は、最先端のベースライン法よりもSA-LSPLの方が優れていることを示した。
関連論文リスト
- Multi-granularity Interest Retrieval and Refinement Network for Long-Term User Behavior Modeling in CTR Prediction [68.90783662117936]
クリックスルーレート(CTR)の予測は、オンラインパーソナライズプラットフォームにとって不可欠である。
近年の進歩は、リッチなユーザの振る舞いをモデル化することで、CTR予測の性能を大幅に改善できることを示している。
マルチグラニュラリティ興味検索ネットワーク(MIRRN)を提案する。
論文 参考訳(メタデータ) (2024-11-22T15:29:05Z) - Hierarchical Reinforcement Learning for Temporal Abstraction of Listwise Recommendation [51.06031200728449]
我々はmccHRLと呼ばれる新しいフレームワークを提案し、リストワイドレコメンデーションにおける時間的抽象化のレベルを異なるものにする。
階層的な枠組みの中では、ハイレベルエージェントがユーザ知覚の進化を研究し、低レベルエージェントがアイテム選択ポリシーを作成している。
その結果,本手法による性能改善は,いくつかのよく知られたベースラインと比較して有意な結果が得られた。
論文 参考訳(メタデータ) (2024-09-11T17:01:06Z) - Multi-Behavior Sequential Recommendation with Temporal Graph Transformer [66.10169268762014]
マルチビヘイビア・インタラクティブなパターンを意識した動的ユーザ・イテム関係学習に取り組む。
本稿では,動的短期および長期のユーザ・イテム対話パターンを共同でキャプチャする,TGT(Temporal Graph Transformer)レコメンデーションフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T15:42:54Z) - Sequential Search with Off-Policy Reinforcement Learning [48.88165680363482]
本稿では,RNN学習フレームワークとアテンションモデルからなる,スケーラブルなハイブリッド学習モデルを提案する。
新たな最適化のステップとして、1つのRNNパスに複数の短いユーザシーケンスをトレーニングバッチ内に収める。
また、マルチセッションパーソナライズされた検索ランキングにおける非政治強化学習の利用についても検討する。
論文 参考訳(メタデータ) (2022-02-01T06:52:40Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - Sequence Adaptation via Reinforcement Learning in Recommender Systems [8.909115457491522]
そこで我々は,SARモデルを提案する。SARモデルは,ユーザとイテムの相互作用のシーケンス長をパーソナライズされた方法で調整する。
さらに,逐次レコメンデーションの精度を批評家ネットワークの予測累積報酬と整合させるために,共同損失関数を最適化する。
実世界の4つのデータセットに対する実験的な評価は,提案モデルがいくつかのベースラインアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-31T13:56:46Z) - Context-aware short-term interest first model for session-based
recommendation [0.0]
文脈対応短期関心第一モデル(CASIF)を提案する。
本研究の目的は,文脈と短期的関心を組み合わせることで,推薦の正確性を向上させることである。
最後に、短期的および長期的利息を最終利息として結合し、候補ベクトルによって乗算して推奨確率を得る。
論文 参考訳(メタデータ) (2021-03-29T11:36:00Z) - TLSAN: Time-aware Long- and Short-term Attention Network for Next-item
Recommendation [0.0]
我々は,TLSAN(Long-Aware and Short-Term Attention Network)を提案する。
TLSANは、長期的行動におけるカテゴリ認識相関を伴うトレーニング可能なパーソナライズされた時間位置埋め込みによって、ユーザー固有の時間的嗜好を学習する。
ユーザの長期的および短期的好みを効果的に捉え、正確な推奨のために、長期的および短期的機能的注意層が提案される。
論文 参考訳(メタデータ) (2021-03-16T10:51:57Z) - STP-UDGAT: Spatial-Temporal-Preference User Dimensional Graph Attention
Network for Next POI Recommendation [22.705788963791445]
Next Point-of-Interest(POI)推奨は、位置情報ベースのソーシャルネットワーク(LBSN)と交通機関の領域にまたがる長年にわたる問題である。
最近のリカレントニューラルネットワーク(RNN)に基づくアプローチは、独立したユーザ訪問シーケンスに基づいて、ローカルビューでPOI-POI関係を学習する。
本研究では,個人化されたユーザの嗜好を同時に活用し,グローバルな空間的・時間的嗜好地区における新たなPOIを探索する新しい探索・探索モデルを提案する。
論文 参考訳(メタデータ) (2020-10-06T04:03:42Z) - Sequential Recommender via Time-aware Attentive Memory Network [67.26862011527986]
本稿では,注意機構と繰り返し単位を改善するための時間ゲーティング手法を提案する。
また,長期と短期の嗜好を統合するマルチホップ・タイムアウェア・アテンテーティブ・メモリ・ネットワークを提案する。
提案手法は,候補探索タスクに対してスケーラブルであり,ドット積に基づくTop-Kレコメンデーションのための潜在因数分解の非線形一般化とみなすことができる。
論文 参考訳(メタデータ) (2020-05-18T11:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。