論文の概要: UFRec: Integrating Uniformity and Frequency to Enhance Sequential Recommendations
- arxiv url: http://arxiv.org/abs/2406.18470v2
- Date: Wed, 3 Jul 2024 13:32:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 19:03:22.804367
- Title: UFRec: Integrating Uniformity and Frequency to Enhance Sequential Recommendations
- Title(参考訳): UFRec: シーケンスレコメンデーションの統一と周波数統合
- Authors: Yang Liu, Yitong Wang, Chenyue Feng,
- Abstract要約: 逐次レコメンデーションのための革新的な双方向拡張手法であるUFRecを紹介する。
UFRecは、シーケンスの均一性とアイテム頻度を利用してパフォーマンスを向上し、特に一様でないシーケンスと低い頻度のアイテムの表現を改善している。
- 参考スコア(独自算出の注目度): 13.654819858917332
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Effective representation learning in sequential recommendation systems is pivotal for precisely capturing user interaction patterns and enhancing recommendation accuracy. Nonetheless, current methodologies largely focus on item-to-item transitions, frequently overlooking the time intervals between interactions, which are integral to understanding behavior pattern shifts. Moreover, critical interaction attributes like item frequency are often neglected. Our research indicates that sequences with more consistent time intervals and items with higher interaction frequency result in superior predictive performance. In contrast, sequences with non-uniform intervals contribute to user interest drift, and infrequently interacted items are challenging to model due to sparse data, posing unique challenges that existing methods fail to adequately address. In this study, we introduce UFRec, an innovative bidirectional enhancement method for sequential recommendations. UFRec harnesses sequence uniformity and item frequency to boost performance, particularly improving the representation of non-uniform sequences and less-frequent items. These two components synergistically enhance each other, driving holistic performance optimization in intricate sequential recommendation scenarios. Additionally, we introduce a multidimensional time module to further augment adaptability. To the best of our knowledge, UFRec is the pioneering method to exploit the properties of uniformity and frequency for feature augmentation. Through comparisons with eleven state-of-the-art models across four datasets, we demonstrate that UFRec significantly surpasses current leading models.
- Abstract(参考訳): シーケンシャルレコメンデーションシステムにおける効果的な表現学習は、ユーザのインタラクションパターンを正確に把握し、レコメンデーションの精度を高めるために重要である。
それにもかかわらず、現在の方法論は、行動パターンのシフトを理解するのに不可欠な相互作用間の時間間隔をしばしば見渡す、アイテム・ツー・イテムの遷移に主に焦点を当てている。
さらに、アイテム周波数のような重要な相互作用属性は無視されることが多い。
本研究は,より一貫した時間間隔を持つシーケンスと,高い相互作用周波数を持つアイテムがより優れた予測性能をもたらすことを示す。
対照的に、非一様間隔のシーケンスはユーザの関心のドリフトに寄与し、頻繁に相互作用するアイテムはスパースデータによってモデル化が困難であり、既存のメソッドが適切に対処できないというユニークな課題を提起する。
本研究では、逐次レコメンデーションのための革新的な双方向拡張手法であるUFRecを紹介する。
UFRecは、シーケンスの均一性とアイテム頻度を利用してパフォーマンスを向上し、特に一様でないシーケンスと低い頻度のアイテムの表現を改善している。
これら2つのコンポーネントは相乗的に互いに強化し、複雑なシーケンシャルなレコメンデーションシナリオにおける全体的なパフォーマンス最適化を推進します。
さらに,適応性を高めるため,多次元時間モジュールを導入する。
我々の知る限り、UFRecは特徴増強のための均一性と周波数の性質を利用する先駆的な手法である。
4つのデータセットにわたる11の最先端モデルとの比較を通じて、UFRecが現在の先行モデルを大幅に上回っていることを示す。
関連論文リスト
- Multi-granularity Interest Retrieval and Refinement Network for Long-Term User Behavior Modeling in CTR Prediction [68.90783662117936]
クリックスルーレート(CTR)の予測は、オンラインパーソナライズプラットフォームにとって不可欠である。
近年の進歩は、リッチなユーザの振る舞いをモデル化することで、CTR予測の性能を大幅に改善できることを示している。
マルチグラニュラリティ興味検索ネットワーク(MIRRN)を提案する。
論文 参考訳(メタデータ) (2024-11-22T15:29:05Z) - Diffusion-based Contrastive Learning for Sequential Recommendation [6.3482831836623355]
本稿では,CaDiRecという,文脈対応拡散に基づく逐次推薦のためのコントラスト学習を提案する。
CaDiRecは、コンテキスト対応拡散モデルを使用して、シーケンス内の所定の位置に対する代替アイテムを生成する。
フレームワーク全体をエンドツーエンドでトレーニングし、拡散モデルとレコメンデーションモデルの間でアイテムの埋め込みを共有します。
論文 参考訳(メタデータ) (2024-05-15T14:20:37Z) - MISSRec: Pre-training and Transferring Multi-modal Interest-aware
Sequence Representation for Recommendation [61.45986275328629]
逐次レコメンデーションのためのマルチモーダル事前学習・転送学習フレームワークであるMISSRecを提案する。
ユーザ側ではトランスフォーマーベースのエンコーダデコーダモデルを設計し、コンテキストエンコーダがシーケンスレベルのマルチモーダルユーザ興味を捉えることを学習する。
候補項目側では,ユーザ適応項目表現を生成するために動的融合モジュールを採用する。
論文 参考訳(メタデータ) (2023-08-22T04:06:56Z) - Uniform Sequence Better: Time Interval Aware Data Augmentation for
Sequential Recommendation [16.00020821220671]
シーケンシャルレコメンデーションは、アイテムのシーケンスに基づいてアクセスする次の項目を予測する重要なタスクである。
既存の作業の多くは、これらの2つの項目間の時間間隔を無視して、前の項目から次の項目への遷移パターンとして、ユーザの好みを学ぶ。
文献では研究されていない時間間隔の観点からシーケンスデータを拡張することを提案する。
論文 参考訳(メタデータ) (2022-12-16T03:13:43Z) - ContrastVAE: Contrastive Variational AutoEncoder for Sequential
Recommendation [58.02630582309427]
本稿では,コントラスト学習を変分オートエンコーダの枠組みに組み込むことを提案する。
ContrastELBOは,従来のシングルビューELBOを2ビューケースに拡張した,新しいトレーニング目標である。
また、コントラストELBOの具体化として、コントラスト正規化を備えた2分岐VAEモデルであるContrastVAEを提案する。
論文 参考訳(メタデータ) (2022-08-27T03:35:00Z) - Continuous-Time Sequential Recommendation with Temporal Graph
Collaborative Transformer [69.0621959845251]
本稿では,定義した連続時間二部グラフ上での時間グラフシーケンスレコメンダ(TGSRec)を提案する。
TCTレイヤは、ユーザとアイテムの両方からの協調的な信号を同時にキャプチャすると同時に、シーケンシャルパターン内の時間的ダイナミクスも考慮する。
5つのデータセットの実証結果は、TGSRecが他のベースラインを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-14T22:50:53Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - Adversarial and Contrastive Variational Autoencoder for Sequential
Recommendation [25.37244686572865]
本稿では、逐次レコメンデーションのためのAdversarial and Contrastive Variational Autoencoder (ACVAE) と呼ばれる新しい手法を提案する。
まず,本モデルが高品質な潜在変数を生成することを可能にするadversarial variational bayesフレームワークの下で,シーケンス生成のためのadversarial trainingを導入する。
さらに、シーケンスをエンコードする場合、シーケンス内のグローバルおよびローカルの関係をキャプチャするために、繰り返しおよび畳み込み構造を適用します。
論文 参考訳(メタデータ) (2021-03-19T09:01:14Z) - Random Feature Attention [69.4671822971207]
ソフトマックス関数を近似するためにランダム特徴法を用いる線形時間空間アテンション RFA を提案する。
RFAは、従来のソフトマックスアテンションのドロップイン代替として使用することができ、オプションのゲーティング機構を通じて、遅延バイアスで直接学習する方法を提供する。
言語モデリングと機械翻訳の実験は、RFAが強力なトランスのベースラインと類似またはより良いパフォーマンスを達成することを実証します。
論文 参考訳(メタデータ) (2021-03-03T02:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。