論文の概要: Intent-aware Diffusion with Contrastive Learning for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2504.16077v1
- Date: Tue, 22 Apr 2025 17:55:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 17:09:37.835643
- Title: Intent-aware Diffusion with Contrastive Learning for Sequential Recommendation
- Title(参考訳): 逐次レコメンデーションのためのコントラスト学習によるインテント認識拡散
- Authors: Yuanpeng Qu, Hajime Nobuhara,
- Abstract要約: 逐次レコメンデーション(InDiRec)のためのコントラスト学習を用いたIntent-Aware Diffusionを提案する。
InDiRecはまず、K-meansを使用してシーケンス表現にインテントクラスタリングを行い、インテントガイド付き信号を生成する。
対象の相互作用シーケンスのインテント表現を取得して条件拡散モデルを導出し、同じ基盤となるインテントを共有する肯定的なビューを生成する。
- 参考スコア(独自算出の注目度): 0.552480439325792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning has proven effective in training sequential recommendation models by incorporating self-supervised signals from augmented views. Most existing methods generate multiple views from the same interaction sequence through stochastic data augmentation, aiming to align their representations in the embedding space. However, users typically have specific intents when purchasing items (e.g., buying clothes as gifts or cosmetics for beauty). Random data augmentation used in existing methods may introduce noise, disrupting the latent intent information implicit in the original interaction sequence. Moreover, using noisy augmented sequences in contrastive learning may mislead the model to focus on irrelevant features, distorting the embedding space and failing to capture users' true behavior patterns and intents. To address these issues, we propose Intent-aware Diffusion with contrastive learning for sequential Recommendation (InDiRec). The core idea is to generate item sequences aligned with users' purchasing intents, thus providing more reliable augmented views for contrastive learning. Specifically, InDiRec first performs intent clustering on sequence representations using K-means to build intent-guided signals. Next, it retrieves the intent representation of the target interaction sequence to guide a conditional diffusion model, generating positive views that share the same underlying intent. Finally, contrastive learning is applied to maximize representation consistency between these intent-aligned views and the original sequence. Extensive experiments on five public datasets demonstrate that InDiRec achieves superior performance compared to existing baselines, learning more robust representations even under noisy and sparse data conditions.
- Abstract(参考訳): コントラスト学習は、拡張ビューから自己教師付き信号を取り入れることで、逐次レコメンデーションモデルのトレーニングに有効であることが証明されている。
既存のほとんどの手法は、確率的データ拡張を通じて、同じ相互作用列から複数のビューを生成し、埋め込み空間におけるそれらの表現の整合を図っている。
しかし、通常、ユーザーはアイテムを購入する際に特定の意図を持っている(例えば、洋服を贈り物や美容品として買うなど)。
既存の方法で使用されるランダムデータ拡張はノイズを導入し、元の相互作用シーケンスで暗黙的な潜伏意図情報を妨害する。
さらに、ノイズの多い拡張シーケンスを対照的な学習に使用すると、無関係な特徴に焦点を合わせ、埋め込み空間を歪め、ユーザの真の行動パターンや意図を捉えていないことを誤解させる可能性がある。
これらの課題に対処するために、逐次レコメンデーション(InDiRec)のためのコントラスト学習を伴うIntent-Aware Diffusionを提案する。
中心となる考え方は、ユーザの購入意図に沿ったアイテムシーケンスを生成し、コントラスト学習のためのより信頼性の高い拡張ビューを提供することである。
具体的には、InDiRecはまず、K-meansを使用してシーケンス表現にインテントクラスタリングを行い、インテントガイド付き信号を生成する。
次に、ターゲットの相互作用シーケンスのインテント表現を取得し、条件付き拡散モデルを導出し、同じ基盤となるインテントを共有する肯定的なビューを生成する。
最後に、これらの意図に沿ったビューと元のシーケンスとの表現一貫性を最大化するために、コントラスト学習を適用する。
5つの公開データセットに対する大規模な実験は、InDiRecが既存のベースラインよりも優れたパフォーマンスを実現し、ノイズやスパースなデータ条件の下でも、より堅牢な表現を学習していることを示している。
関連論文リスト
- Dual Conditional Diffusion Models for Sequential Recommendation [63.82152785755723]
シーケンスレコメンデーションのための二重条件拡散モデル(DCRec)を提案する。
DCRecは2つの条件を前と逆の拡散プロセスに埋め込むことで暗黙的および明示的な情報を統合する。
これによってモデルは、明示的なユーザ-イテムインタラクションを活用してレコメンデーションプロセスをガイドしながら、価値あるシーケンシャルおよびコンテキスト情報を保持することができる。
論文 参考訳(メタデータ) (2024-10-29T11:51:06Z) - Intent-Enhanced Data Augmentation for Sequential Recommendation [20.639934432829325]
逐次レコメンデーション(textbfIESRec)のためのインテント強化データ拡張手法を提案する。
IESRecは、インテント・セグメンテーションの挿入を通じて、ユーザの行動シーケンスに基づいて、正と負のサンプルを構築する。
生成した正および負のサンプルは、対比損失関数を構築するために使用され、自己教師付きトレーニングを通じて推奨性能を高める。
論文 参考訳(メタデータ) (2024-10-11T07:23:45Z) - Diffusion-based Contrastive Learning for Sequential Recommendation [6.3482831836623355]
本稿では,CaDiRecという,文脈対応拡散に基づく逐次推薦のためのコントラスト学習を提案する。
CaDiRecは、コンテキスト対応拡散モデルを使用して、シーケンス内の所定の位置に対する代替アイテムを生成する。
フレームワーク全体をエンドツーエンドでトレーニングし、拡散モデルとレコメンデーションモデルの間でアイテムの埋め込みを共有します。
論文 参考訳(メタデータ) (2024-05-15T14:20:37Z) - Exploring the Individuality and Collectivity of Intents behind Interactions for Graph Collaborative Filtering [9.740376003100437]
本稿では,BIGCF (Bilateral Intent-Guided Graph Collaborative Filtering) に指定された新しい推薦フレームワークを提案する。
具体的には、因果的視点からユーザとイテムの相互作用を詳しく調べ、個別の意図の概念を提示する。
暗黙的なフィードバックの空間性に対抗するため、ユーザとアイテムの特徴分布はガウスベースのグラフ生成戦略を介して符号化される。
論文 参考訳(メタデータ) (2024-05-15T02:31:26Z) - Improving Contrastive Learning with Model Augmentation [123.05700988581806]
このシーケンシャルレコメンデーションは,ユーザ行動における次の項目を予測することを目的としている。
シーケンスにおけるデータの分散性やノイズの問題から,新たな自己教師付き学習(SSL)パラダイムが提案され,性能が向上した。
論文 参考訳(メタデータ) (2022-03-25T06:12:58Z) - Intent Contrastive Learning for Sequential Recommendation [86.54439927038968]
ユーザの意図を表現するために潜伏変数を導入し,クラスタリングにより潜伏変数の分布関数を学習する。
我々は,学習意図を対照的なSSLによってSRモデルに活用し,シーケンスのビューとそれに対応するインテントとの一致を最大化することを提案する。
4つの実世界のデータセットで実施された実験は、提案した学習パラダイムの優位性を示している。
論文 参考訳(メタデータ) (2022-02-05T09:24:13Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - Composable Augmentation Encoding for Video Representation Learning [94.2358972764708]
自己教師型ビデオ表現学習におけるコントラスト手法に着目した。
対照的な学習における一般的なパラダイムは、同じインスタンスで異なるデータビューをサンプリングし、異なるデータインスタンスを負として、ポジティブペアを構築することである。
そこで我々は,拡張パラメータの列を明示的に提供する,拡張対応型コントラスト学習フレームワークを提案する。
提案手法は,特定の空間的あるいは時間的拡張に関する情報をエンコードすると同時に,多数のビデオベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-01T16:48:53Z) - Active Learning for Coreference Resolution using Discrete Annotation [76.36423696634584]
我々は、コア参照解決におけるアクティブラーニングのためのペアワイズアノテーションを改善した。
提案された参照ペアがコアフェレントでないと判断された場合、アノテータに参照アンテセントを識別するよう依頼する。
既存のベンチマークコアベンチマークデータセットを用いた実験では、この追加質問からの信号が人間のアノテーション時間当たりの大幅なパフォーマンス向上につながることが示された。
論文 参考訳(メタデータ) (2020-04-28T17:17:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。