論文の概要: Learning Self-Modulating Attention in Continuous Time Space with
Applications to Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2204.06517v1
- Date: Wed, 30 Mar 2022 03:54:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-17 07:05:32.537498
- Title: Learning Self-Modulating Attention in Continuous Time Space with
Applications to Sequential Recommendation
- Title(参考訳): 連続時間空間における自己変調注意の学習と逐次勧告への応用
- Authors: Chao Chen, Haoyu Geng, Nianzu Yang, Junchi Yan, Daiyue Xue, Jianping
Yu and Xiaokang Yang
- Abstract要約: 本稿では,複雑で非線形に進化する動的ユーザの嗜好をモデル化する,自己変調型注意ネットワークを提案する。
提案手法がトップNシーケンシャルなレコメンデーションタスクに与える影響を実証的に示すとともに,3つの大規模実世界のデータセットによる結果から,我々のモデルが最先端のパフォーマンスを達成できることを示す。
- 参考スコア(独自算出の注目度): 102.24108167002252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User interests are usually dynamic in the real world, which poses both
theoretical and practical challenges for learning accurate preferences from
rich behavior data. Among existing user behavior modeling solutions, attention
networks are widely adopted for its effectiveness and relative simplicity.
Despite being extensively studied, existing attentions still suffer from two
limitations: i) conventional attentions mainly take into account the spatial
correlation between user behaviors, regardless the distance between those
behaviors in the continuous time space; and ii) these attentions mostly provide
a dense and undistinguished distribution over all past behaviors then
attentively encode them into the output latent representations. This is however
not suitable in practical scenarios where a user's future actions are relevant
to a small subset of her/his historical behaviors. In this paper, we propose a
novel attention network, named self-modulating attention, that models the
complex and non-linearly evolving dynamic user preferences. We empirically
demonstrate the effectiveness of our method on top-N sequential recommendation
tasks, and the results on three large-scale real-world datasets show that our
model can achieve state-of-the-art performance.
- Abstract(参考訳): ユーザの興味は通常、現実世界で動的であり、リッチな行動データから正確な好みを学ぶための理論的および実践的な課題となる。
既存のユーザ行動モデリングソリューションの中で、アテンションネットワークはその有効性と相対的単純性のために広く採用されている。
広く研究されているにもかかわらず、既存の注意は以下の2つの制限に悩まされている。
一 従来の注意は、連続した時間空間における行動間の距離にかかわらず、利用者行動間の空間的相関を考慮している。
ii) これらの注意は、主に過去の行動全体にわたって密集し、かつ、断続的に分布し、それらを出力された潜在表現に注意深くエンコードする。
しかし、これは、ユーザーの将来のアクションが彼女の過去の行動のごく一部に関係している実際のシナリオには適していない。
本稿では,複雑かつ非線形に進化する動的ユーザの嗜好をモデル化した,自己変調型注意ネットワークを提案する。
提案手法をトップn逐次レコメンデーションタスクで有効性を示すとともに,3つの大規模実世界データセットの結果から,本モデルが最先端の性能を達成できることを実証した。
関連論文リスト
- Long-Sequence Recommendation Models Need Decoupled Embeddings [49.410906935283585]
我々は、既存の長期推薦モデルにおいて無視された欠陥を識別し、特徴付ける。
埋め込みの単一のセットは、注意と表現の両方を学ぶのに苦労し、これら2つのプロセス間の干渉につながります。
本稿では,2つの異なる埋め込みテーブルを別々に学習し,注意と表現を完全に分離する,DARE(Decoupled Attention and Representation Embeddings)モデルを提案する。
論文 参考訳(メタデータ) (2024-10-03T15:45:15Z) - Personalized Behavior-Aware Transformer for Multi-Behavior Sequential
Recommendation [25.400756652696895]
マルチビヘイビアシーケンスレコメンデーション(MBSR)問題に対するパーソナライズされた行動認識変換フレームワーク(PBAT)を提案する。
PBATは表現層にパーソナライズされた振舞いパターン生成器を開発し,逐次学習のための動的・識別的な振舞いパターンを抽出する。
3つのベンチマークデータセットで実験を行い、その結果、フレームワークの有効性と解釈性を示した。
論文 参考訳(メタデータ) (2024-02-22T12:03:21Z) - Learning Dual Dynamic Representations on Time-Sliced User-Item
Interaction Graphs for Sequential Recommendation [62.30552176649873]
シーケンシャルレコメンデーションのための動的表現学習モデル(DRL-SRe)を考案する。
両面から動的に特徴付けるためのユーザ・イテム相互作用をモデル化するため,提案モデルでは,時間スライス毎にグローバルなユーザ・イテム相互作用グラフを構築した。
モデルが微粒な時間情報を捕捉することを可能にするため,連続時間スライス上での補助的時間予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:44:27Z) - Dynamic Memory based Attention Network for Sequential Recommendation [79.5901228623551]
DMAN(Dynamic Memory-based Attention Network)と呼ばれる新しい連続的推薦モデルを提案する。
長い動作シーケンス全体を一連のサブシーケンスに分割し、モデルをトレーニングし、ユーザの長期的な利益を維持するためにメモリブロックのセットを維持する。
動的メモリに基づいて、ユーザの短期的および長期的関心を明示的に抽出し、組み合わせて効率的な共同推薦を行うことができる。
論文 参考訳(メタデータ) (2021-02-18T11:08:54Z) - Multi-Interactive Attention Network for Fine-grained Feature Learning in
CTR Prediction [48.267995749975476]
クリックスルー率(ctr)予測シナリオでは、ユーザのシーケンシャルな動作を利用してユーザの関心を捉える。
既存の手法は主にユーザの行動に注意を払っているが、CTR予測には必ずしも適していない。
マルチインタラクティブ・アテンション・ネットワーク (MIAN) を提案し, 各種微細な特徴間の潜在関係を総合的に抽出する。
論文 参考訳(メタデータ) (2020-12-13T05:46:19Z) - Cost-effective Interactive Attention Learning with Neural Attention
Processes [79.8115563067513]
対話型注意学習(Interactive Attention Learning, IAL)と呼ばれる対話型学習フレームワークを提案する。
IALは、人間のアノテーションが不足しているため、過度に適合する傾向がある。
我々は,サンプル効率のよい注意機構と,コスト効率のよいインスタンスと機能の再ランクアルゴリズムを提案することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2020-06-09T17:36:41Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。