論文の概要: Revisiting Recommendation Loss Functions through Contrastive Learning (Technical Report)
- arxiv url: http://arxiv.org/abs/2312.08520v2
- Date: Mon, 04 Nov 2024 06:32:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:41:03.219347
- Title: Revisiting Recommendation Loss Functions through Contrastive Learning (Technical Report)
- Title(参考訳): コントラスト学習による推薦損失関数の再検討(技術報告)
- Authors: Dong Li, Ruoming Jin, Bin Ren,
- Abstract要約: 本稿では,バランス係数を持つInfoNCEの最適化一般化であるInfoNCE+を紹介する。
特に、新しい分離された対照的な損失であるMINE+に合わせると、パフォーマンス上のアドバンテージを強調します。
また,Debiased InfoNCEを用いて,Debiased CCLとしてポイントワイドレコメンデーション損失(CCL)を除去する。
- 参考スコア(独自算出の注目度): 17.66432992703812
- License:
- Abstract: Inspired by the success of contrastive learning, we systematically examine recommendation losses, including listwise (softmax), pairwise (BPR), and pointwise (MSE and CCL) losses. In this endeavor, we introduce InfoNCE+, an optimized generalization of InfoNCE with balance coefficients, and highlight its performance advantages, particularly when aligned with our new decoupled contrastive loss, MINE+. We also leverage debiased InfoNCE to debias pointwise recommendation loss (CCL) as Debiased CCL. Interestingly, our analysis reveals that linear models like iALS and EASE are inherently debiased. Empirical results demonstrates the effectiveness of MINE+ and Debiased-CCL.
- Abstract(参考訳): コントラスト学習の成功に触発されて,リストワイド(ソフトマックス),ペアワイド(BPR),ポイントワイド(MSE,CCL)損失などの推薦損失を体系的に検討した。
本稿では、バランス係数を持つInfoNCEの最適化一般化であるInfoNCE+を紹介し、特に新たな非結合型コントラスト損失であるMINE+に合わせると、その性能上の利点を強調します。
また,Debiased InfoNCEを用いて,Debiased CCLとしてポイントワイドレコメンデーション損失(CCL)を除去する。
興味深いことに、我々はiALSやEASEのような線形モデルが本質的に偏りを持っていることを明らかにした。
経験的結果は、MINE+とDebiased-CCLの有効性を示す。
関連論文リスト
- Bridging Mini-Batch and Asymptotic Analysis in Contrastive Learning: From InfoNCE to Kernel-Based Losses [20.273126099815517]
異なるコントラスト学習(CL)の損失は、実際には最適化されているのでしょうか?
DHEL(Decoupled Hyperspherical Energy Loss)を新たに導入する。
我々は、カーネルコントラスト学習(KCL)という別の関連するCLファミリに対して、期待される損失がバッチサイズに依存しないことの利点として、同じ結果が得られたことを示す。
論文 参考訳(メタデータ) (2024-05-28T11:00:41Z) - Lower-Left Partial AUC: An Effective and Efficient Optimization Metric
for Recommendation [52.45394284415614]
我々は,AUCのように計算効率が良く,Top-Kランキングの指標と強く相関する新しい最適化指標であるLLPAUCを提案する。
LLPAUCはローワーレフト角のROC曲線の下の部分領域のみを考慮し、最適化はトップKに焦点をあてる。
論文 参考訳(メタデータ) (2024-02-29T13:58:33Z) - NoisyICL: A Little Noise in Model Parameters Calibrates In-context
Learning [5.2538258920647944]
In-Context Learning(ICL)は、事前バイアスが高く、不信感があるため、不満足なパフォーマンスと過小評価に悩まされている。
本稿では,モデルパラメータをランダムノイズで摂動させることで,より優れた性能とキャリブレーションを実現するノイズICLを提案する。
論文 参考訳(メタデータ) (2024-02-08T09:48:02Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - (Debiased) Contrastive Learning Loss for Recommendation (Technical Report) [9.295305143447962]
提案手法では,デバイアスドInfoNCEと相互情報ニューラル推定器(MINE)を初めて導入し,検討する。
MSE と CCL の双方に偏りのある点損失を提示し、理論上最も人気のある2つの線形モデルである iALS と EASE が本質的に偏りであることを示す。
実験の結果, 脱バイアス化損失の有効性が示され, 新たに導入された相互情報損失は, 既存の(バイアス化)損失よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T21:09:56Z) - Supervised Contrastive Learning with TPE-based Bayesian Optimization of
Tabular Data for Imbalanced Learning [5.429128081621714]
不均衡データセットに対する木構造パーゼン推定器(TPE)に基づくベイズ最適化手法を用いたSCL(Supervised Contrastive Learning)手法を提案する。
提案したSCL-TPE法は,最先端の手法と比較して大幅に改良された性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T18:15:54Z) - An Asymmetric Contrastive Loss for Handling Imbalanced Datasets [0.0]
ACLと呼ばれる非対称なCLを導入し、クラス不均衡の問題に対処する。
さらに,非対称な焦点コントラスト損失(AFCL)をACLと焦点コントラスト損失の両方のさらなる一般化として提案する。
FMNISTとISIC 2018の不均衡データセットの結果、AFCLは重み付けと非重み付けの両方の分類精度でCLとFCLを上回っていることが示された。
論文 参考訳(メタデータ) (2022-07-14T17:30:13Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - A Symmetric Loss Perspective of Reliable Machine Learning [87.68601212686086]
平衡誤差率 (BER) の最小化において, 対称損失が破損ラベルからのロバストな分類をいかに生み出すかを検討する。
我々は、関連するキーワードからのみ学習したい問題において、AUC手法が自然言語処理にどのように役立つかを実証する。
論文 参考訳(メタデータ) (2021-01-05T06:25:47Z) - Unbiased Risk Estimators Can Mislead: A Case Study of Learning with
Complementary Labels [92.98756432746482]
我々は,補完ラベルを用いた学習という,弱教師付き問題を研究する。
勾配推定の品質はリスク最小化においてより重要であることを示す。
本稿では,ゼロバイアスと分散の低減を両立させる新しい補助的相補的損失(SCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-05T04:19:37Z) - Contrastive Learning for Debiased Candidate Generation in Large-Scale
Recommender Systems [84.3996727203154]
コントラスト損失の一般的な選択は、逆確率重み付けによる露光バイアスの低減と等価であることを示す。
我々はCLRecをさらに改良し、マルチCLRecを提案する。
提案手法は,少なくとも4ヶ月のオンラインA/Bテストとオフライン分析が実施され,大幅に改善されている。
論文 参考訳(メタデータ) (2020-05-20T08:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。