論文の概要: Relative Contrastive Learning for Sequential Recommendation with Similarity-based Positive Pair Selection
- arxiv url: http://arxiv.org/abs/2504.19178v1
- Date: Sun, 27 Apr 2025 09:56:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.16464
- Title: Relative Contrastive Learning for Sequential Recommendation with Similarity-based Positive Pair Selection
- Title(参考訳): 類似性に基づく肯定的ペア選択を用いた逐次推薦のための相対的コントラスト学習
- Authors: Zhikai Wang, Yanyan Shen, Zexi Zhang, Li He, Yichun Li, Hao Gu, Yinghua Zhang,
- Abstract要約: 逐次レコメンデーションのためのRCL(Relative Contrastive Learning)フレームワークを導入する。
RCLは、二重層正サンプル選択モジュールと相対対比学習モジュールとを備える。
RCLを2つの主流ディープラーニングベースSRモデルに適用する。
- 参考スコア(独自算出の注目度): 19.4614204975044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive Learning (CL) enhances the training of sequential recommendation (SR) models through informative self-supervision signals. Existing methods often rely on data augmentation strategies to create positive samples and promote representation invariance. Some strategies such as item reordering and item substitution may inadvertently alter user intent. Supervised Contrastive Learning (SCL) based methods find an alternative to augmentation-based CL methods by selecting same-target sequences (interaction sequences with the same target item) to form positive samples. However, SCL-based methods suffer from the scarcity of same-target sequences and consequently lack enough signals for contrastive learning. In this work, we propose to use similar sequences (with different target items) as additional positive samples and introduce a Relative Contrastive Learning (RCL) framework for sequential recommendation. RCL comprises a dual-tiered positive sample selection module and a relative contrastive learning module. The former module selects same-target sequences as strong positive samples and selects similar sequences as weak positive samples. The latter module employs a weighted relative contrastive loss, ensuring that each sequence is represented closer to its strong positive samples than its weak positive samples. We apply RCL on two mainstream deep learning-based SR models, and our empirical results reveal that RCL can achieve 4.88% improvement averagely than the state-of-the-art SR methods on five public datasets and one private dataset.
- Abstract(参考訳): コントラスト学習(CL)は、情報的自己超越信号を通じて、逐次レコメンデーション(SR)モデルのトレーニングを強化する。
既存の手法は、正のサンプルを作成し、表現不変性を促進するために、しばしばデータ拡張戦略に依存している。
アイテムのリオーダーやアイテム置換といったいくつかの戦略は、ユーザの意図を不注意に変更する可能性がある。
Supervised Contrastive Learning (SCL) に基づく手法は、同じターゲットシーケンス(同じターゲットアイテムとの相互作用シーケンス)を選択して正のサンプルを生成することで、拡張ベースのCL法に代わる方法を見つける。
しかし、SCLに基づく手法は、同じターゲット配列の不足に悩まされ、結果としてコントラスト学習のための十分な信号が不足する。
本研究では、類似したシーケンス(異なる対象項目を含む)を追加の正のサンプルとして使用し、逐次レコメンデーションのためのRCL(Relative Contrastive Learning)フレームワークを導入することを提案する。
RCLは、二重層正サンプル選択モジュールと相対対比学習モジュールとを備える。
前者のモジュールは、強い正のサンプルとして同じターゲット配列を選択し、同じ配列を弱い正のサンプルとして選択する。
後者のモジュールは、重み付けされた相対的な対照的な損失を採用し、各配列が弱い正のサンプルよりも強い正のサンプルに近く表現されることを保証する。
RCLを2つの主流のディープラーニングベースSRモデルに適用し、実験結果から、RCLは5つの公開データセットと1つのプライベートデータセットの最先端SRメソッドよりも平均4.88%改善できることがわかった。
関連論文リスト
- Semantic Retrieval Augmented Contrastive Learning for Sequential Recommendation [17.18176550968383]
本稿では,SRA-CL(Semantic Retrieval Augmented Contrastive Learning)という手法を提案する。
SRA-CLは、(1)大規模言語モデル(LLM)を利用して多様なユーザの嗜好を理解し、意味的に類似したユーザを検索して、学習可能なサンプル手法で信頼性の高い正のサンプルを作成する、(2) LLMを使ってアイテムを理解し、類似したアイテムを検索する、アイテムセマンティック検索という2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2025-03-06T07:25:19Z) - Contrastive Learning with Synthetic Positives [11.932323457691945]
PNCL(Contrastive Learning with Synthetic Positives)は、隣人から学ぶための新しいアプローチである。
非条件拡散モデルにより生成された合成画像は、モデルが様々な正から学習するのに役立つ追加の正として使用される。
これらの画像は、アンカー画像の「ハード」陽性と見なされ、コントラスト損失に補足陽性を含むと、線形評価において2%以上、1%以上の性能向上に寄与する。
論文 参考訳(メタデータ) (2024-08-30T01:47:43Z) - Decoupled Contrastive Learning for Long-Tailed Recognition [58.255966442426484]
Supervised Contrastive Loss (SCL) は視覚表現学習で人気がある。
ロングテール認識のシナリオでは、各クラスのサンプル数が不均衡である場合、2種類の正のサンプルを同じように扱うと、カテゴリー内距離に対するバイアス最適化が導かれる。
そこで我々は,尾級の低表現を緩和するために,頭級から尾級へ知識を伝達するためのパッチベースの自己蒸留法を提案する。
論文 参考訳(メタデータ) (2024-03-10T09:46:28Z) - Adversarial Contrastive Learning via Asymmetric InfoNCE [64.42740292752069]
非対称なInfoNCEの目的と対比した場合,非対称なサンプルを不等に扱うことを提案する。
非対称的な方法では、CLと対向学習の相反する目的の悪影響を効果的に軽減することができる。
実験の結果,提案手法は既存CL法より一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2022-07-18T04:14:36Z) - Contrastive Principal Component Learning: Modeling Similarity by
Augmentation Overlap [50.48888534815361]
コントラシブ・プリンシパル・コンポーネント・ラーニング(CPCL)手法を提案する。
CPCLにより、学習された低次元埋め込みは、標本間の増大分布の類似性を理論的に保存する。
論文 参考訳(メタデータ) (2022-06-01T13:03:58Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - Contrastive Attraction and Contrastive Repulsion for Representation
Learning [131.72147978462348]
コントラスト学習(CL)法は,複数の負のサンプルに対して,エンコーダが各正のサンプルと対比する自己超越的な方法でデータ表現を学習する。
最近のCL法は、ImageNetのような大規模データセットで事前訓練された場合、有望な結果を得た。
自己グループ内の正と負のサンプルを別々に比較し、正と負の群を対比して進行する2つのCL戦略を提案する。
論文 参考訳(メタデータ) (2021-05-08T17:25:08Z) - Understanding and Achieving Efficient Robustness with Adversarial
Contrastive Learning [34.97017489872795]
Adversarial Supervised Contrastive Learning (ASCL)アプローチは、堅牢な精度の観点から最先端の防御を2.6%$上回る。
提案された選択戦略を持つASCLは、選択戦略なしでASCLと比較してわずか4,2.8%のプラスと6.3%のマイナスでさらに1.4%$改善を得ることができます。
論文 参考訳(メタデータ) (2021-01-25T11:57:52Z) - Contrastive Learning with Adversarial Examples [79.39156814887133]
コントラスト学習(Contrastive Learning, CL)は、視覚表現の自己教師型学習(SSL)において一般的な手法である。
本稿では,コンストラクティブ・ラーニングのための新しい逆例群を紹介し,これらの例を用いてCLAEと表記されるSSLの新しい逆トレーニングアルゴリズムを定義する。
論文 参考訳(メタデータ) (2020-10-22T20:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。