論文の概要: RecDCL: Dual Contrastive Learning for Recommendation
- arxiv url: http://arxiv.org/abs/2401.15635v2
- Date: Mon, 19 Feb 2024 03:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 03:20:46.795053
- Title: RecDCL: Dual Contrastive Learning for Recommendation
- Title(参考訳): RecDCL:レコメンデーションのためのデュアルコントラスト学習
- Authors: Dan Zhang and Yangliao Geng and Wenwen Gong and Zhongang Qi and Zhiyu
Chen and Xing Tang and Ying Shan and Yuxiao Dong and Jie Tang
- Abstract要約: 本稿では、RecDCLという2つのコントラスト学習推薦フレームワークを提案する。
RecDCLでは、FCLの目的は、ユーザとイテムの正のペアに対する冗長なソリューションを排除することである。
BCLの目的は、表現の堅牢性を高めるために出力ベクトルにコントラスト埋め込みを生成するために利用される。
- 参考スコア(独自算出の注目度): 65.6236784430981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning (SSL) has recently achieved great success in mining
the user-item interactions for collaborative filtering. As a major paradigm,
contrastive learning (CL) based SSL helps address data sparsity in Web
platforms by contrasting the embeddings between raw and augmented data.
However, existing CL-based methods mostly focus on contrasting in a batch-wise
way, failing to exploit potential regularity in the feature dimension. This
leads to redundant solutions during the representation learning of users and
items. In this work, we investigate how to employ both batch-wise CL (BCL) and
feature-wise CL (FCL) for recommendation. We theoretically analyze the relation
between BCL and FCL, and find that combining BCL and FCL helps eliminate
redundant solutions but never misses an optimal solution. We propose a dual
contrastive learning recommendation framework -- RecDCL. In RecDCL, the FCL
objective is designed to eliminate redundant solutions on user-item positive
pairs and to optimize the uniform distributions within users and items using a
polynomial kernel for driving the representations to be orthogonal; The BCL
objective is utilized to generate contrastive embeddings on output vectors for
enhancing the robustness of the representations. Extensive experiments on four
widely-used benchmarks and one industry dataset demonstrate that RecDCL can
consistently outperform the state-of-the-art GNNs-based and SSL-based models
(with an improvement of up to 5.65\% in terms of Recall@20). The source code is
publicly available (https://github.com/THUDM/RecDCL).
- Abstract(参考訳): 自己教師付き学習(SSL)は、最近、協調フィルタリングのためのユーザ-イテムインタラクションのマイニングで大きな成功を収めた。
主要なパラダイムとして、CL(Contrative Learning)ベースのSSLは、生データと拡張データの埋め込みを対比することにより、Webプラットフォームのデータの疎さに対処するのに役立つ。
しかし、既存のCLベースのメソッドは主にバッチ的にコントラストに重点を置いており、機能次元の潜在的な規則性を活用できない。
これは、ユーザとアイテムの表現学習において、冗長なソリューションにつながる。
本研究では,バッチワイズCL (BCL) と機能ワイズCL (FCL) を併用する方法を検討する。
理論的にはBCLとFCLの関係を解析し、BCLとFCLを組み合わせることで冗長な解を排除できるが、最適解を見逃すことはない。
本稿では、RecDCLという2つの対比学習推薦フレームワークを提案する。
RecDCLでは、ユーザとイテムの正のペアに対する冗長な解を排除し、表現を直交する多項式カーネルを用いてユーザとアイテム内の均一な分布を最適化するために設計されており、BCLの目的は出力ベクトルにコントラスト的な埋め込みを生成して表現の堅牢性を高める。
広く使用されている4つのベンチマークと1つの業界データセットに関する大規模な実験は、RecDCLが最先端のGNNとSSLベースのモデル(Recall@20で最大5.65\%の改善)を一貫して上回っていることを示している。
ソースコードは公開されている(https://github.com/THUDM/RecDCL)。
関連論文リスト
- Improved Diversity-Promoting Collaborative Metric Learning for Recommendation [127.08043409083687]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T07:44:48Z) - Fusion Self-supervised Learning for Recommendation [16.02820746003461]
本稿では,Fusion Self-supervised Learningフレームワークを提案する。
具体的には、GCNプロセスからの高次情報を用いてコントラストビューを作成します。
各種CL目標からの自己教師付き信号を統合するために,先進CL目標を提案する。
論文 参考訳(メタデータ) (2024-07-29T04:30:38Z) - L^2CL: Embarrassingly Simple Layer-to-Layer Contrastive Learning for Graph Collaborative Filtering [33.165094795515785]
グラフニューラルネットワーク(GNN)は、最近、協調フィルタリングにおいて近隣の信号をモデル化するための効果的なアプローチとして登場した。
L2CLは、異なるレイヤの表現を対比する、原則的なレイヤ間コントラスト学習フレームワークである。
その結果,L2CLは,一対一のコントラスト学習パラダイムのみを用いて,固有の意味構造をキャプチャし,ノード表現の質を向上させることができることがわかった。
論文 参考訳(メタデータ) (2024-07-19T12:45:21Z) - Enhancing Adversarial Contrastive Learning via Adversarial Invariant
Regularization [59.77647907277523]
Adversarial contrastive learning (ACL)は、標準コントラスト学習(SCL)を強化する技術である。
本稿では,スタイル要因からの独立性を確保するために,逆不変正規化(AIR)を提案する。
論文 参考訳(メタデータ) (2023-04-30T03:12:21Z) - Efficient Adversarial Contrastive Learning via Robustness-Aware Coreset
Selection [59.77647907277523]
敵対的コントラスト学習(ACL)は、高価なデータアノテーションを必要としないが、敵対的攻撃に耐える堅牢な表現を出力する。
ACLは、すべてのトレーニングデータの逆の変種を生成するのに、膨大な実行時間が必要です。
本稿では,ACLの高速化を目的としたロバストネス対応コアセット選択(RCS)手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T03:20:14Z) - Supervised Contrastive Learning as Multi-Objective Optimization for
Fine-Tuning Large Pre-trained Language Models [3.759936323189417]
教師付きコントラスト学習(SCL)は,ほとんどの分類タスクにおいて優れた性能を発揮することが示されている。
本研究では,RoBERTa言語モデルの微調整フェーズにおける多目的最適化問題としてSCL問題を定式化する。
論文 参考訳(メタデータ) (2022-09-28T15:13:58Z) - Decoupled Adversarial Contrastive Learning for Self-supervised
Adversarial Robustness [69.39073806630583]
頑健な表現学習のための対人訓練(AT)と教師なし表現学習のための自己教師型学習(SSL)は2つの活発な研究分野である。
Decoupled Adversarial Contrastive Learning (DeACL) と呼ばれる2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-22T06:30:44Z) - Decoupled Contrastive Learning [23.25775900388382]
我々は,広く使用されているクロスエントロピー(InfoNCE)損失における顕著な負陽性結合(NPC)効果を同定した。
NPC効果を適切に処理することにより、非結合型コントラスト学習(DCL)目標関数に到達する。
われわれのアプローチは、200時間以内のバッチサイズ256を使用して6.9%のImageNet top-1精度を実現し、ベースラインのSimCLRを5.1%上回った。
論文 参考訳(メタデータ) (2021-10-13T16:38:43Z) - Contrastive Learning with Adversarial Examples [79.39156814887133]
コントラスト学習(Contrastive Learning, CL)は、視覚表現の自己教師型学習(SSL)において一般的な手法である。
本稿では,コンストラクティブ・ラーニングのための新しい逆例群を紹介し,これらの例を用いてCLAEと表記されるSSLの新しい逆トレーニングアルゴリズムを定義する。
論文 参考訳(メタデータ) (2020-10-22T20:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。