論文の概要: Continuous-Time Sequential Recommendation with Temporal Graph
Collaborative Transformer
- arxiv url: http://arxiv.org/abs/2108.06625v1
- Date: Sat, 14 Aug 2021 22:50:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 05:54:50.333506
- Title: Continuous-Time Sequential Recommendation with Temporal Graph
Collaborative Transformer
- Title(参考訳): 時間グラフ協調変圧器を用いた連続時間逐次推薦
- Authors: Ziwei Fan and Zhiwei Liu and Jiawei Zhang and Yun Xiong and Lei Zheng
and Philip S. Yu
- Abstract要約: 本稿では,定義した連続時間二部グラフ上での時間グラフシーケンスレコメンダ(TGSRec)を提案する。
TCTレイヤは、ユーザとアイテムの両方からの協調的な信号を同時にキャプチャすると同時に、シーケンシャルパターン内の時間的ダイナミクスも考慮する。
5つのデータセットの実証結果は、TGSRecが他のベースラインを大幅に上回っていることを示している。
- 参考スコア(独自算出の注目度): 69.0621959845251
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In order to model the evolution of user preference, we should learn user/item
embeddings based on time-ordered item purchasing sequences, which is defined as
Sequential Recommendation (SR) problem. Existing methods leverage sequential
patterns to model item transitions. However, most of them ignore crucial
temporal collaborative signals, which are latent in evolving user-item
interactions and coexist with sequential patterns. Therefore, we propose to
unify sequential patterns and temporal collaborative signals to improve the
quality of recommendation, which is rather challenging. Firstly, it is hard to
simultaneously encode sequential patterns and collaborative signals. Secondly,
it is non-trivial to express the temporal effects of collaborative signals.
Hence, we design a new framework Temporal Graph Sequential Recommender
(TGSRec) upon our defined continuous-time bi-partite graph. We propose a novel
Temporal Collaborative Trans-former (TCT) layer in TGSRec, which advances the
self-attention mechanism by adopting a novel collaborative attention. TCT layer
can simultaneously capture collaborative signals from both users and items, as
well as considering temporal dynamics inside sequential patterns. We propagate
the information learned fromTCTlayerover the temporal graph to unify sequential
patterns and temporal collaborative signals. Empirical results on five datasets
show that TGSRec significantly outperforms other baselines, in average up to
22.5% and 22.1%absolute improvements in Recall@10and MRR, respectively.
- Abstract(参考訳): ユーザの嗜好の進化をモデル化するために,逐次レコメンデーション(sr)問題として定義される時間順アイテム購入シーケンスに基づいて,ユーザ/テーマ埋め込みを学習する必要がある。
既存の手法はシーケンシャルなパターンを利用してアイテムの遷移をモデル化する。
しかし、その多くは、ユーザとイテムの相互作用の進化に遅れ、シーケンシャルなパターンと共存する重要な時間的協調シグナルを無視している。
そこで本研究では,推薦の質を向上させるために,逐次的パターンと時間的協調信号の統合を提案する。
まず,シーケンシャルパターンと協調信号を同時にエンコードすることは困難である。
第二に、協調信号の時間的効果を表現することは自明ではない。
そこで我々は,連続時間二成分グラフ上に新たなフレームワークであるtemporal graph sequential recommender (tgsrec) を設計する。
本稿では,TGSRecにおけるTCT(Temporal Collaborative Trans-former)層を提案する。
tct層は、シーケンシャルパターン内の時間的ダイナミクスを考慮しながら、ユーザとアイテムの両方からの協調的なシグナルを同時に捉えることができる。
我々は,学習した情報を時間グラフ上で伝達し,逐次パターンと時間協調信号を統合する。
5つのデータセットの実証的な結果は、TGSRecがRecall@10とMRRのそれぞれ平均22.5%と22.1%の絶対改善で他のベースラインを大幅に上回っていることを示している。
関連論文リスト
- Repeat-Aware Neighbor Sampling for Dynamic Graph Learning [8.975322389416734]
既存の研究は、主に最新の隣のシーケンスに依存して進化するパターンを得る。
将来、2つのノードが相互に相互作用するかどうかは、過去に起こったのと同じ相互作用と非常に相関している、と我々は主張する。
本稿では,近隣のサンプリング戦略と時間情報学習における1次・高次反復行動の進化パターンを考察したRepeatMixerを提案する。
論文 参考訳(メタデータ) (2024-05-24T03:24:29Z) - TimeGraphs: Graph-based Temporal Reasoning [64.18083371645956]
TimeGraphsは階層的時間グラフとして動的相互作用を特徴付ける新しいアプローチである。
提案手法は,コンパクトなグラフベース表現を用いて相互作用をモデル化し,多種多様な時間スケールでの適応推論を可能にする。
我々は,サッカーシミュレータ,抵抗ゲーム,MOMA人間活動データセットなど,複雑でダイナミックなエージェントインタラクションを持つ複数のデータセット上でTimeGraphsを評価する。
論文 参考訳(メタデータ) (2024-01-06T06:26:49Z) - TIGER: Temporal Interaction Graph Embedding with Restarts [12.685645074210562]
時間的相互作用グラフ(TIG)は、eコマースやソーシャルネットワークなどの分野で広く使われている。
TIGは、時間とともに変化するタイムスタンプされたインタラクションイベントのシーケンスで構成される。
従来の方法は、ノード表現が最新であることを保証するために、時系列かつ連続的にイベントのシーケンスを処理しなければならない。
これにより、既存のモデルの並列化が防止され、産業アプリケーションにおける柔軟性が低下する。
論文 参考訳(メタデータ) (2023-02-13T02:29:11Z) - Skeleton-based Action Recognition through Contrasting Two-Stream
Spatial-Temporal Networks [11.66009967197084]
本稿では,空間的および時間的モジュールを並列に融合するContrastive GCN-Transformer Network(ConGT)を提案する。
我々は3つのベンチマークデータセットで実験を行い、このモデルが動作認識における最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-01-27T02:12:08Z) - Enhancing Sequential Recommendation with Graph Contrastive Learning [64.05023449355036]
本稿では、逐次推薦のためのグラフコントラスト学習(GCL4SR)という、新しいシーケンシャルレコメンデーションフレームワークを提案する。
GCL4SRは、すべてのユーザのインタラクションシーケンスに基づいて構築された重み付きアイテム遷移グラフ(WITG)を使用して、各インタラクションのグローバルなコンテキスト情報を提供し、シーケンスデータのノイズ情報を弱める。
実世界のデータセットの実験では、GCL4SRは最先端のシーケンシャルレコメンデーションメソッドよりも一貫して優れていることが示されている。
論文 参考訳(メタデータ) (2022-05-30T03:53:31Z) - Towards Similarity-Aware Time-Series Classification [51.2400839966489]
時系列データマイニングの基本課題である時系列分類(TSC)について検討する。
グラフニューラルネットワーク(GNN)を用いて類似情報をモデル化するフレームワークであるSimTSCを提案する。
論文 参考訳(メタデータ) (2022-01-05T02:14:57Z) - Learning Dual Dynamic Representations on Time-Sliced User-Item
Interaction Graphs for Sequential Recommendation [62.30552176649873]
シーケンシャルレコメンデーションのための動的表現学習モデル(DRL-SRe)を考案する。
両面から動的に特徴付けるためのユーザ・イテム相互作用をモデル化するため,提案モデルでは,時間スライス毎にグローバルなユーザ・イテム相互作用グラフを構築した。
モデルが微粒な時間情報を捕捉することを可能にするため,連続時間スライス上での補助的時間予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:44:27Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - Position-enhanced and Time-aware Graph Convolutional Network for
Sequential Recommendations [3.286961611175469]
我々は、位置対応と時間対応のグラフ畳み込みネットワーク(PTGCN)に基づく、深層学習に基づくシーケンシャルレコメンデーションアプローチを提案する。
PTGCNは、位置対応と時間対応のグラフ畳み込み演算を定義することにより、ユーザとイテム相互作用間の逐次パターンと時間ダイナミクスをモデル化する。
多層グラフ畳み込みを積み重ねることで、ユーザとアイテム間の高次接続を実現する。
論文 参考訳(メタデータ) (2021-07-12T07:34:20Z) - Temporal Graph Modeling for Skeleton-based Action Recognition [25.788239844759246]
複雑な時間的ダイナミクスを捉えるための時間拡張グラフ畳み込みネットワーク(TE-GCN)を提案する。
構築された時間関係グラフは、意味的に関連する時間的特徴間の接続を明示的に構築する。
2つの大規模データセットで実験を行う。
論文 参考訳(メタデータ) (2020-12-16T09:02:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。