論文の概要: Multi-Sample based Contrastive Loss for Top-k Recommendation
- arxiv url: http://arxiv.org/abs/2109.00217v1
- Date: Wed, 1 Sep 2021 07:32:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-02 17:44:02.457623
- Title: Multi-Sample based Contrastive Loss for Top-k Recommendation
- Title(参考訳): トップkレコメンデーションのためのマルチサンプルベースコントラスト損失
- Authors: Hao Tang, Guoshuai Zhao, Yuxia Wu, Xueming Qian
- Abstract要約: Contrastive Loss (CL)は、最近より注目を集めている対照的な学習の鍵である。
CL損失関数と同時に複数の正の項目(またはサンプル)を同時に用いた新しいデータ拡張手法を提案する。
- 参考スコア(独自算出の注目度): 33.02297142668278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The top-k recommendation is a fundamental task in recommendation systems
which is generally learned by comparing positive and negative pairs. The
Contrastive Loss (CL) is the key in contrastive learning that has received more
attention recently and we find it is well suited for top-k recommendations.
However, it is a problem that CL treats the importance of the positive and
negative samples as the same. On the one hand, CL faces the imbalance problem
of one positive sample and many negative samples. On the other hand, positive
items are so few in sparser datasets that their importance should be
emphasized. Moreover, the other important issue is that the sparse positive
items are still not sufficiently utilized in recommendations. So we propose a
new data augmentation method by using multiple positive items (or samples)
simultaneously with the CL loss function. Therefore, we propose a Multi-Sample
based Contrastive Loss (MSCL) function which solves the two problems by
balancing the importance of positive and negative samples and data
augmentation. And based on the graph convolution network (GCN) method,
experimental results demonstrate the state-of-the-art performance of MSCL. The
proposed MSCL is simple and can be applied in many methods. We will release our
code on GitHub upon the acceptance.
- Abstract(参考訳): top-kレコメンデーションはレコメンデーションシステムにおける基本的なタスクであり、ポジティブペアとネガティブペアを比較することで一般的に学習される。
Contrastive Loss (CL)は、最近注目を集めているコントラスト学習の鍵であり、トップkレコメンデーションに適していることに気付きました。
しかし、CLが正と負のサンプルの重要性を同じとして扱うのは問題である。
一方、clは1つの正のサンプルと多くの負のサンプルの不均衡問題に直面している。
一方、sparserデータセットでは、ポジティブな項目が極めて少ないため、その重要性が強調されるべきである。
さらに、他の重要な問題は、スパースなポジティブな項目が依然として推奨事項で十分に活用されていないことである。
そこで本研究では,cl損失関数と複数の正の項目(またはサンプル)を同時に用いる新しいデータ拡張手法を提案する。
そこで我々は,正と負のサンプルの重要性とデータ拡張のバランスをとることで,2つの問題を解決するマルチサンプルベースコントラスト損失(MSCL)関数を提案する。
グラフ畳み込みネットワーク(GCN)法を用いて,MSCLの最先端性能を示す実験結果を得た。
提案したMSCLは単純で,多くの手法に適用可能である。
受け入れ次第、githubでコードをリリースします。
関連論文リスト
- SimCE: Simplifying Cross-Entropy Loss for Collaborative Filtering [47.81610130269399]
SSM(Sampred Softmax Cross-Entropy)を提案する。
また,上界を用いてSSMを単純化するアンダーラインSimplified Sampled Softmax underlineCross-underlineEntropy Loss (SimCE)を導入する。
MFとLightGCNの両方のバックボーンを使用して、12のベンチマークデータセットに対する検証を行ったところ、SimCEはBPRとSSMの両方で大幅に優れていた。
論文 参考訳(メタデータ) (2024-06-23T17:24:07Z) - Multi-Margin Cosine Loss: Proposal and Application in Recommender Systems [0.0]
協調フィルタリングに基づくディープラーニング技術は、その素直な性質から人気を取り戻している。
これらのシステムは、相互作用モジュール、損失関数、ネガティブサンプリング戦略の3つの主要コンポーネントから構成される。
提案したMulti-Margin Cosine Loss (MMCL)は、負のサンプルに対して複数のマージンと様々な重みを導入することで、これらの課題に対処する。
論文 参考訳(メタデータ) (2024-05-07T18:58:32Z) - Decoupled Contrastive Learning for Long-Tailed Recognition [58.255966442426484]
Supervised Contrastive Loss (SCL) は視覚表現学習で人気がある。
ロングテール認識のシナリオでは、各クラスのサンプル数が不均衡である場合、2種類の正のサンプルを同じように扱うと、カテゴリー内距離に対するバイアス最適化が導かれる。
そこで我々は,尾級の低表現を緩和するために,頭級から尾級へ知識を伝達するためのパッチベースの自己蒸留法を提案する。
論文 参考訳(メタデータ) (2024-03-10T09:46:28Z) - Contrastive Learning with Negative Sampling Correction [52.990001829393506]
PUCL(Positive-Unlabeled Contrastive Learning)という新しいコントラスト学習手法を提案する。
PUCLは生成した負のサンプルをラベルのないサンプルとして扱い、正のサンプルからの情報を用いて、対照的な損失のバイアスを補正する。
PUCLは一般的なコントラスト学習問題に適用でき、様々な画像やグラフの分類タスクにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-01-13T11:18:18Z) - Supervised Advantage Actor-Critic for Recommender Systems [76.7066594130961]
本稿では、RL成分を学習するための負のサンプリング戦略を提案し、それを教師付き逐次学習と組み合わせる。
サンプル化された(負の)作用 (items) に基づいて、平均ケース上での正の作用の「アドバンテージ」を計算することができる。
SNQNとSA2Cを4つのシーケンシャルレコメンデーションモデルでインスタンス化し、2つの実世界のデータセットで実験を行う。
論文 参考訳(メタデータ) (2021-11-05T12:51:15Z) - Debiased Graph Contrastive Learning [27.560217866753938]
本稿では,各負のサンプルが真かどうかの確率を推定する,新規で効果的な手法を提案する。
Debiased Graph Contrastive Learning (DGCL)は、いくつかのベンチマークにおいて、教師なしの最先端結果よりも優れているか、あるいは一致している。
論文 参考訳(メタデータ) (2021-10-05T13:15:59Z) - Contrastive Attraction and Contrastive Repulsion for Representation
Learning [131.72147978462348]
コントラスト学習(CL)法は,複数の負のサンプルに対して,エンコーダが各正のサンプルと対比する自己超越的な方法でデータ表現を学習する。
最近のCL法は、ImageNetのような大規模データセットで事前訓練された場合、有望な結果を得た。
自己グループ内の正と負のサンプルを別々に比較し、正と負の群を対比して進行する2つのCL戦略を提案する。
論文 参考訳(メタデータ) (2021-05-08T17:25:08Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。