論文の概要: RecDCL: Dual Contrastive Learning for Recommendation
- arxiv url: http://arxiv.org/abs/2401.15635v1
- Date: Sun, 28 Jan 2024 11:51:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 17:14:33.781153
- Title: RecDCL: Dual Contrastive Learning for Recommendation
- Title(参考訳): RecDCL:レコメンデーションのためのデュアルコントラスト学習
- Authors: Dan Zhang and Yangliao Geng and Wenwen Gong and Zhongang Qi and Zhiyu
Chen and Xing Tang and Ying Shan and Yuxiao Dong and Jie Tang
- Abstract要約: 自己監督型レコメンデーション(SSR)は、近年、協調フィルタリングのための潜在的な相互作用行動のマイニングにおいて大きな成功を収めている。
Contrastive Learning (CL)ベースのSSRは、生データと拡張データの埋め込みを対比することで、Webプラットフォームのデータの分散性を克服する。
既存のCLベースのSSR手法は、主にバッチワイドのコントラストに重点を置いており、フィーチャワイドの潜在的な正則性を活用できない。
- 参考スコア(独自算出の注目度): 65.6236784430981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised recommendation (SSR) has achieved great success in mining the
potential interacted behaviors for collaborative filtering in recent years. As
a major branch, Contrastive Learning (CL) based SSR conquers data sparsity in
Web platforms by contrasting the embedding between raw data and augmented data.
However, existing CL-based SSR methods mostly focus on contrasting in a
batch-wise way, failing to exploit potential regularity in the feature-wise
dimension, leading to redundant solutions during the representation learning
process of users (items) from Websites. Furthermore, the joint benefits of
utilizing both Batch-wise CL (BCL) and Feature-wise CL (FCL) for
recommendations remain underexplored. To address these issues, we investigate
the relationship of objectives between BCL and FCL. Our study suggests a
cooperative benefit of employing both methods, as evidenced from theoretical
and experimental perspectives. Based on these insights, we propose a dual CL
method for recommendation, referred to as RecDCL. RecDCL first eliminates
redundant solutions on user-item positive pairs in a feature-wise manner. It
then optimizes the uniform distributions within users and items using a
polynomial kernel from an FCL perspective. Finally, it generates contrastive
embedding on output vectors in a batch-wise objective. We conduct experiments
on four widely-used benchmarks and an industrial dataset. The results
consistently demonstrate that the proposed RecDCL outperforms the
state-of-the-art GNNs-based and SSL-based models (with up to a 5.65\%
improvement in terms of Recall@20), thereby confirming the effectiveness of the
joint-wise objective. All source codes used in this paper are publicly
available at \url{https://github.com/THUDM/RecDCL}}.
- Abstract(参考訳): 自己監視型推薦(ssr)は,近年,協調フィルタリングのための潜在的相互作用行動のマイニングにおいて,大きな成功を収めている。
CL(Contrastive Learning)をベースとするSSRは,Webプラットフォームにおいて,生データと拡張データの埋め込みを対比することで,データの分散性を克服する。
しかし、既存のCLベースのSSR手法は、主にバッチワイドなコントラストに重点を置いており、機能面での潜在的な正則性を活用できないため、Webサイトからのユーザ(イテム)の表現学習プロセスにおいて、冗長な解決につながる。
さらに,Batch-wise CL (BCL) とFeature-wise CL (FCL) を併用したレコメンデーションのメリットも未検討である。
これらの課題に対処するために,BCLとFCLの目的の関係を検討する。
本研究は, 理論的および実験的観点から, 両手法の併用による協調的利益が示唆された。
これらの知見に基づいて、リコメンデーションのための二重CL法(RecDCL)を提案する。
recdclはまず,ユーザストーリのポジティブペアに対する冗長なソリューションを,機能面で排除する。
次に、FCLの観点から多項式カーネルを使用して、ユーザとアイテム内の均一な分布を最適化する。
最後に、バッチ的な目的の出力ベクトルにコントラスト埋め込みを生成する。
広く使われている4つのベンチマークと産業データセットで実験を行う。
提案したRecDCLは、最先端のGNNとSSLベースのモデル(Recall@20で最大5.65\%の改善)よりも優れており、共同目的の有効性が検証されている。
この論文で使用されるソースコードはすべて、 \url{https://github.com/THUDM/RecDCL}}で公開されている。
関連論文リスト
- Improved Diversity-Promoting Collaborative Metric Learning for Recommendation [127.08043409083687]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T07:44:48Z) - High-Order Fusion Graph Contrastive Learning for Recommendation [16.02820746003461]
グラフコントラスト学習(GCL)ベースの手法は、様々なデータ拡張技術を通じてコントラストビューを作成することでCLを実装するのが一般的である。
既存のCLベースの手法では、自己教師付き信号のキャプチャに従来のCLの目的を用いている。
本稿では,HFGCL(High-order Fusion Graph Contrastive Learning)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-29T04:30:38Z) - L^2CL: Embarrassingly Simple Layer-to-Layer Contrastive Learning for Graph Collaborative Filtering [33.165094795515785]
グラフニューラルネットワーク(GNN)は、最近、協調フィルタリングにおいて近隣の信号をモデル化するための効果的なアプローチとして登場した。
L2CLは、異なるレイヤの表現を対比する、原則的なレイヤ間コントラスト学習フレームワークである。
その結果,L2CLは,一対一のコントラスト学習パラダイムのみを用いて,固有の意味構造をキャプチャし,ノード表現の質を向上させることができることがわかった。
論文 参考訳(メタデータ) (2024-07-19T12:45:21Z) - Enhancing Adversarial Contrastive Learning via Adversarial Invariant
Regularization [59.77647907277523]
Adversarial contrastive learning (ACL)は、標準コントラスト学習(SCL)を強化する技術である。
本稿では,スタイル要因からの独立性を確保するために,逆不変正規化(AIR)を提案する。
論文 参考訳(メタデータ) (2023-04-30T03:12:21Z) - Efficient Adversarial Contrastive Learning via Robustness-Aware Coreset
Selection [59.77647907277523]
敵対的コントラスト学習(ACL)は、高価なデータアノテーションを必要としないが、敵対的攻撃に耐える堅牢な表現を出力する。
ACLは、すべてのトレーニングデータの逆の変種を生成するのに、膨大な実行時間が必要です。
本稿では,ACLの高速化を目的としたロバストネス対応コアセット選択(RCS)手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T03:20:14Z) - Supervised Contrastive Learning as Multi-Objective Optimization for
Fine-Tuning Large Pre-trained Language Models [3.759936323189417]
教師付きコントラスト学習(SCL)は,ほとんどの分類タスクにおいて優れた性能を発揮することが示されている。
本研究では,RoBERTa言語モデルの微調整フェーズにおける多目的最適化問題としてSCL問題を定式化する。
論文 参考訳(メタデータ) (2022-09-28T15:13:58Z) - Decoupled Adversarial Contrastive Learning for Self-supervised
Adversarial Robustness [69.39073806630583]
頑健な表現学習のための対人訓練(AT)と教師なし表現学習のための自己教師型学習(SSL)は2つの活発な研究分野である。
Decoupled Adversarial Contrastive Learning (DeACL) と呼ばれる2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-22T06:30:44Z) - Decoupled Contrastive Learning [23.25775900388382]
我々は,広く使用されているクロスエントロピー(InfoNCE)損失における顕著な負陽性結合(NPC)効果を同定した。
NPC効果を適切に処理することにより、非結合型コントラスト学習(DCL)目標関数に到達する。
われわれのアプローチは、200時間以内のバッチサイズ256を使用して6.9%のImageNet top-1精度を実現し、ベースラインのSimCLRを5.1%上回った。
論文 参考訳(メタデータ) (2021-10-13T16:38:43Z) - Contrastive Learning with Adversarial Examples [79.39156814887133]
コントラスト学習(Contrastive Learning, CL)は、視覚表現の自己教師型学習(SSL)において一般的な手法である。
本稿では,コンストラクティブ・ラーニングのための新しい逆例群を紹介し,これらの例を用いてCLAEと表記されるSSLの新しい逆トレーニングアルゴリズムを定義する。
論文 参考訳(メタデータ) (2020-10-22T20:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。