論文の概要: SimCE: Simplifying Cross-Entropy Loss for Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2406.16170v1
- Date: Sun, 23 Jun 2024 17:24:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 18:44:41.955714
- Title: SimCE: Simplifying Cross-Entropy Loss for Collaborative Filtering
- Title(参考訳): SimCE: 協調フィルタリングのためのクロスエントロピー損失の簡易化
- Authors: Xiaodong Yang, Huiyuan Chen, Yuchen Yan, Yuxin Tang, Yuying Zhao, Eric Xu, Yiwei Cai, Hanghang Tong,
- Abstract要約: SSM(Sampred Softmax Cross-Entropy)を提案する。
また,上界を用いてSSMを単純化するアンダーラインSimplified Sampled Softmax underlineCross-underlineEntropy Loss (SimCE)を導入する。
MFとLightGCNの両方のバックボーンを使用して、12のベンチマークデータセットに対する検証を行ったところ、SimCEはBPRとSSMの両方で大幅に優れていた。
- 参考スコア(独自算出の注目度): 47.81610130269399
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The learning objective is integral to collaborative filtering systems, where the Bayesian Personalized Ranking (BPR) loss is widely used for learning informative backbones. However, BPR often experiences slow convergence and suboptimal local optima, partially because it only considers one negative item for each positive item, neglecting the potential impacts of other unobserved items. To address this issue, the recently proposed Sampled Softmax Cross-Entropy (SSM) compares one positive sample with multiple negative samples, leading to better performance. Our comprehensive experiments confirm that recommender systems consistently benefit from multiple negative samples during training. Furthermore, we introduce a \underline{Sim}plified Sampled Softmax \underline{C}ross-\underline{E}ntropy Loss (SimCE), which simplifies the SSM using its upper bound. Our validation on 12 benchmark datasets, using both MF and LightGCN backbones, shows that SimCE significantly outperforms both BPR and SSM.
- Abstract(参考訳): 学習目的は協調フィルタリングシステムに不可欠なものであり、ベイズパーソナライズされたランキング(BPR)の損失は情報的バックボーンの学習に広く用いられている。
しかしながら、BPRは各正の項目に対して1つの負の項目のみを考慮し、他の観測されていない項目の潜在的影響を無視しているため、緩やかな収束と最適な局所最適を経験することが多い。
この問題に対処するため、最近提案されたSammpled Softmax Cross-Entropy (SSM) では、正のサンプルを複数の負のサンプルと比較し、性能が向上した。
総合的な実験では、トレーニング中に複数の負のサンプルからリコメンダシステムが常に恩恵を受けることが確認された。
さらに,SSM を上界で単純化した SimCE (Samline{Sim}plified Sampled Softmax \underline{C}ross-\underline{E}ntropy Loss) を導入する。
MFとLightGCNの両方のバックボーンを使用して、12のベンチマークデータセットに対する検証を行ったところ、SimCEはBPRとSSMの両方で大幅に優れていた。
関連論文リスト
- Multi-Margin Cosine Loss: Proposal and Application in Recommender Systems [0.0]
協調フィルタリングに基づくディープラーニング技術は、その素直な性質から人気を取り戻している。
これらのシステムは、相互作用モジュール、損失関数、ネガティブサンプリング戦略の3つの主要コンポーネントから構成される。
提案したMulti-Margin Cosine Loss (MMCL)は、負のサンプルに対して複数のマージンと様々な重みを導入することで、これらの課題に対処する。
論文 参考訳(メタデータ) (2024-05-07T18:58:32Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - On the Theories Behind Hard Negative Sampling for Recommendation [51.64626293229085]
ハードネガティブサンプリング(HNS)を効果的に活用するための2つの洞察に富んだガイドラインを提供する。
パーソナライズされたランク付け(BPR)学習者におけるHNSの利用は、一方通行部分AUC(OPAUC)の最適化と等価であることを示す。
これらの分析は、初めてトップKレコメンデーションパフォーマンスを最適化するHNSの理論的基盤を確立する。
論文 参考訳(メタデータ) (2023-02-07T13:57:03Z) - Rethinking Collaborative Metric Learning: Toward an Efficient
Alternative without Negative Sampling [156.7248383178991]
コラボレーティブ・メトリック・ラーニング(CML)パラダイムはレコメンデーション・システム(RS)分野に広く関心を集めている。
負のサンプリングが一般化誤差のバイアス付き推定に繋がることがわかった。
そこで我々は,SFCML (textitSampling-Free Collaborative Metric Learning) という名前のCMLに対して,負のサンプリングを伴わない効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-06-23T08:50:22Z) - Hard Negative Sampling via Regularized Optimal Transport for Contrastive
Representation Learning [13.474603286270836]
本研究では、教師なしコントラスト表現学習のためのハードネガティブサンプリング分布の設計問題について検討する。
本稿では,最大(Worst-case)一般化されたコントラスト学習損失を最小限に抑える表現を求める新しいmin-maxフレームワークの提案と解析を行う。
論文 参考訳(メタデータ) (2021-11-04T21:25:24Z) - Multi-Sample based Contrastive Loss for Top-k Recommendation [33.02297142668278]
Contrastive Loss (CL)は、最近より注目を集めている対照的な学習の鍵である。
CL損失関数と同時に複数の正の項目(またはサンプル)を同時に用いた新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2021-09-01T07:32:13Z) - Reenvisioning Collaborative Filtering vs Matrix Factorization [65.74881520196762]
近年,行列因数分解に基づく協調フィルタリングモデルや,ニューラルネットワーク(ANN)を用いた類似性の学習が注目されている。
推薦エコシステム内でのANNの発表が最近疑問視され、効率性と有効性に関していくつかの比較がなされている。
本研究では,これらの手法が相補的評価次元に与える影響を解析しながら,超精度評価にもたらす可能性を示す。
論文 参考訳(メタデータ) (2021-07-28T16:29:38Z) - Contrastive Attraction and Contrastive Repulsion for Representation
Learning [131.72147978462348]
コントラスト学習(CL)法は,複数の負のサンプルに対して,エンコーダが各正のサンプルと対比する自己超越的な方法でデータ表現を学習する。
最近のCL法は、ImageNetのような大規模データセットで事前訓練された場合、有望な結果を得た。
自己グループ内の正と負のサンプルを別々に比較し、正と負の群を対比して進行する2つのCL戦略を提案する。
論文 参考訳(メタデータ) (2021-05-08T17:25:08Z) - M$^5$L: Multi-Modal Multi-Margin Metric Learning for RGBT Tracking [44.296318907168]
RGBT追跡の過程で混乱するサンプルを分類することは難しい問題である。
RGBT追跡のためのM$5$Lという新しいマルチモーダルマルチマージンメトリックラーニングフレームワークを提案する。
我々のフレームワークは、追跡性能を向上し、最先端のRGBTトラッカーよりも優れています。
論文 参考訳(メタデータ) (2020-03-17T11:37:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。