論文の概要: SimpleX: A Simple and Strong Baseline for Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2109.12613v1
- Date: Sun, 26 Sep 2021 14:09:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:22:09.092397
- Title: SimpleX: A Simple and Strong Baseline for Collaborative Filtering
- Title(参考訳): SimpleX: コラボレーションフィルタリングのためのシンプルで強力なベースライン
- Authors: Kelong Mao, Jieming Zhu, Jinpeng Wang, Quanyu Dai, Zhenhua Dong, Xi
Xiao, Xiuqiang He
- Abstract要約: 協調フィルタリング(CF)は、リコメンデータシステムにおいて広く研究されている研究トピックである。
損失関数の選択と負のサンプリング比が同等に重要であることを示す。
我々は、コサインコントラスト損失(CCL)を提案し、これをSimpleXと呼ばれる単純な統合CFモデルに組み込む。
- 参考スコア(独自算出の注目度): 27.1702047088897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative filtering (CF) is a widely studied research topic in
recommender systems. The learning of a CF model generally depends on three
major components, namely interaction encoder, loss function, and negative
sampling. While many existing studies focus on the design of more powerful
interaction encoders, the impacts of loss functions and negative sampling
ratios have not yet been well explored. In this work, we show that the choice
of loss function as well as negative sampling ratio is equivalently important.
More specifically, we propose the cosine contrastive loss (CCL) and further
incorporate it to a simple unified CF model, dubbed SimpleX. Extensive
experiments have been conducted on 11 benchmark datasets and compared with 29
existing CF models in total. Surprisingly, the results show that, under our CCL
loss and a large negative sampling ratio, SimpleX can surpass most
sophisticated state-of-the-art models by a large margin (e.g., max 48.5%
improvement in NDCG@20 over LightGCN). We believe that SimpleX could not only
serve as a simple strong baseline to foster future research on CF, but also
shed light on the potential research direction towards improving loss function
and negative sampling.
- Abstract(参考訳): 協調フィルタリング(CF)は推薦システムにおいて広く研究されている研究テーマである。
CFモデルの学習は一般的に、相互作用エンコーダ、損失関数、負サンプリングという3つの主要なコンポーネントに依存する。
既存の多くの研究はより強力な相互作用エンコーダの設計に焦点を当てているが、損失関数と負のサンプリング比の影響はまだ十分に研究されていない。
本研究では,損失関数の選択と負のサンプリング比が同等に重要であることを示す。
より具体的には、コサインコントラスト損失(CCL)を提案し、さらにSimpleXと呼ばれる単純な統合CFモデルに組み込む。
11のベンチマークデータセットで広範な実験が行われ、合計で29の既存のcfモデルと比較された。
驚くべきことに、我々のCCL損失と大きな負のサンプリング比の下で、SimpleXは最も洗練された最先端のモデルを大きなマージン(例えば、LightGCNよりもNDCG@20が最大48.5%改善)で上回ることができる。
我々は,SimpleXがCFの今後の研究を促進するための単純な強力なベースラインとして機能するだけでなく,損失関数と負サンプリングの改善に向けた潜在的研究の方向性にも光を当てることができると考えている。
関連論文リスト
- Unifying Graph Convolution and Contrastive Learning in Collaborative Filtering [33.4238287258316]
グラフベースのモデルと対照的な学習は、協調フィルタリングにおいて顕著な手法として現れてきた。
本稿では,グラフモデルの重要な要素であるグラフ畳み込みと,理論的枠組みによる対照的な学習を橋渡しする。
本稿では,単純なコントラスト型協調フィルタリング(SCCF)を提案する。
論文 参考訳(メタデータ) (2024-06-20T04:50:28Z) - Adversarial Collaborative Filtering for Free [27.949683060138064]
CF(Collaborative Filtering)は、ユーザが関心のある項目を見つけるのに役立つ。
既存の方法はノイズの多いデータ問題に悩まされ、推奨の質に悪影響を及ぼす。
本稿では, 計算コストを犠牲にすることなく, 対向学習を行う簡易かつ効果的な手法として, シャープネス対応協調フィルタリング(CF)を提案する。
論文 参考訳(メタデータ) (2023-08-20T19:25:38Z) - uCTRL: Unbiased Contrastive Representation Learning via Alignment and
Uniformity for Collaborative Filtering [6.663503238373593]
協調フィルタリング(CF)モデルは、人気バイアスのあるレコメンデーションリストを得る傾向がある。
この問題を軽減するために,Unbiased ConTrastive Representation Learning (uCTRL)を提案する。
また,ユーザとアイテムの両方のバイアスを除去する新しいIPW推定手法も考案した。
論文 参考訳(メタデータ) (2023-05-22T06:55:38Z) - SelfCF: A Simple Framework for Self-supervised Collaborative Filtering [72.68215241599509]
協調フィルタリング(CF)は、観測された相互作用からユーザやアイテムの情報的潜在表現を学習するために広く用いられている。
本稿では,暗黙的なフィードバックを伴うレコメンデータシナリオに特化して設計された自己教師型協調フィルタリングフレームワーク(SelfCF)を提案する。
自制フレームワークのBUIRと比較して,SelfCFは平均17.79%の精度向上を実現している。
論文 参考訳(メタデータ) (2021-07-07T05:21:12Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Contrastive Attraction and Contrastive Repulsion for Representation
Learning [131.72147978462348]
コントラスト学習(CL)法は,複数の負のサンプルに対して,エンコーダが各正のサンプルと対比する自己超越的な方法でデータ表現を学習する。
最近のCL法は、ImageNetのような大規模データセットで事前訓練された場合、有望な結果を得た。
自己グループ内の正と負のサンプルを別々に比較し、正と負の群を対比して進行する2つのCL戦略を提案する。
論文 参考訳(メタデータ) (2021-05-08T17:25:08Z) - Enhanced Principal Component Analysis under A Collaborative-Robust
Framework [89.28334359066258]
重み学習とロバストな損失を非自明な方法で組み合わせる,一般的な協調ロバスト重み学習フレームワークを提案する。
提案されたフレームワークでは、トレーニング中の重要度を示す適切なサンプルの一部のみがアクティブになり、エラーが大きい他のサンプルは無視されません。
特に、不活性化試料の負の効果はロバスト損失関数によって軽減される。
論文 参考訳(メタデータ) (2021-03-22T15:17:37Z) - EqCo: Equivalent Rules for Self-supervised Contrastive Learning [81.45848885547754]
本稿では,InfoNCEをベースとしたコントラスト学習フレームワークにおいて,負のサンプル数と無関係に自己教師型学習を実現する手法を提案する。
InfoMaxの原理に着想を得て、負のペアの数に応じて、対照的な損失のマージン項を適応的にスケールする必要があることを指摘する。
論文 参考訳(メタデータ) (2020-10-05T11:39:04Z) - SCE: Scalable Network Embedding from Sparsest Cut [20.08464038805681]
大規模ネットワーク埋め込みは、教師なしの方法で各ノードの潜在表現を学習することである。
このような対照的な学習手法の成功の鍵は、正と負のサンプルを引き出す方法である。
本稿では, 負のサンプルのみを用いた教師なしネットワーク埋め込みのためのSCEを提案する。
論文 参考訳(メタデータ) (2020-06-30T03:18:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。