論文の概要: Correct and Weight: A Simple Yet Effective Loss for Implicit Feedback Recommendation
- arxiv url: http://arxiv.org/abs/2601.04291v1
- Date: Wed, 07 Jan 2026 15:20:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.8675
- Title: Correct and Weight: A Simple Yet Effective Loss for Implicit Feedback Recommendation
- Title(参考訳): 修正と軽量: インシデントフィードバック推奨のためのシンプルで効果的な損失
- Authors: Minglei Yin, Chuanbo Hu, Bin Liu, Neil Zhenqiang Gong, Yanfang, Ye, Xin Li,
- Abstract要約: 本稿では,CW損失(Corrected and Weighted, CW損失)という,新規で原則化された損失関数を提案する。
CW損失は訓練対象内の偽陰性の影響を体系的に補正する。
4つの大規模でスパースなベンチマークデータセットで実施された実験は、提案した損失の優越性を実証している。
- 参考スコア(独自算出の注目度): 36.820719132176315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from implicit feedback has become the standard paradigm for modern recommender systems. However, this setting is fraught with the persistent challenge of false negatives, where unobserved user-item interactions are not necessarily indicative of negative preference. To address this issue, this paper introduces a novel and principled loss function, named Corrected and Weighted (CW) loss, that systematically corrects for the impact of false negatives within the training objective. Our approach integrates two key techniques. First, inspired by Positive-Unlabeled learning, we debias the negative sampling process by re-calibrating the assumed negative distribution. By theoretically approximating the true negative distribution (p-) using the observable general data distribution (p) and the positive interaction distribution (p^+), our method provides a more accurate estimate of the likelihood that a sampled unlabeled item is truly negative. Second, we introduce a dynamic re-weighting mechanism that modulates the importance of each negative instance based on the model's current prediction. This scheme encourages the model to enforce a larger ranking margin between positive items and confidently predicted (i.e., easy) negative items, while simultaneously down-weighting the penalty on uncertain negatives that have a higher probability of being false negatives. A key advantage of our approach is its elegance and efficiency; it requires no complex modifications to the data sampling process or significant computational overhead, making it readily applicable to a wide array of existing recommendation models. Extensive experiments conducted on four large-scale, sparse benchmark datasets demonstrate the superiority of our proposed loss. The results show that our method consistently and significantly outperforms a suite of state-of-the-art loss functions across multiple ranking-oriented metrics.
- Abstract(参考訳): 暗黙のフィードバックから学ぶことは、現代のレコメンデータシステムの標準パラダイムとなっている。
しかし、この設定は、観測されていないユーザとイテムの相互作用が必ずしもネガティブな嗜好を示すとは限らない、偽陰性という永続的な課題と結びついている。
この問題に対処するために,本論文では,学習対象における偽陰性の影響を体系的に補正する,CW(Corrected and Weighted)損失という,新規で原則化された損失関数を提案する。
このアプローチには2つの重要なテクニックが組み込まれています。
まず、肯定的非ラベル学習にインスパイアされ、仮定された負の分布を再校正することで、負のサンプリングプロセスを逸脱する。
理論的には、観測可能な一般データ分布(p)と正の相互作用分布(p^+)を用いて真負分布(p-)を近似することにより、サンプル未ラベル項目が真負の確率をより正確に推定することができる。
第二に、モデルの現在の予測に基づいて、各負のインスタンスの重要性を変調する動的再重み付け機構を導入する。
このスキームは、モデルに対して、正の項目と自信を持って予測される(すなわち、容易な)負の項目の間のより大きなランク付けマージンを強制すると同時に、偽の負の確率が高い不確実な負の値に対するペナルティを下げることを奨励する。
このアプローチの主な利点はエレガンスと効率であり、データサンプリングプロセスやかなりの計算オーバーヘッドに複雑な変更を加える必要はなく、既存のリコメンデーションモデルにも容易に適用できます。
4つの大規模でスパースなベンチマークデータセットで実施された大規模な実験は、提案した損失の優越性を実証している。
その結果,本手法は,複数のランク指向メトリクスに対して,最先端の損失関数群を連続的に,かつ著しく上回っていることがわかった。
関連論文リスト
- Contrastive Learning with Negative Sampling Correction [52.990001829393506]
PUCL(Positive-Unlabeled Contrastive Learning)という新しいコントラスト学習手法を提案する。
PUCLは生成した負のサンプルをラベルのないサンプルとして扱い、正のサンプルからの情報を用いて、対照的な損失のバイアスを補正する。
PUCLは一般的なコントラスト学習問題に適用でき、様々な画像やグラフの分類タスクにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-01-13T11:18:18Z) - Your Negative May not Be True Negative: Boosting Image-Text Matching
with False Negative Elimination [62.18768931714238]
提案手法は, サンプリングによる新規な偽陰性除去 (FNE) 戦略である。
その結果,提案した偽陰性除去戦略の優位性が示された。
論文 参考訳(メタデータ) (2023-08-08T16:31:43Z) - Generating Negative Samples for Sequential Recommendation [83.60655196391855]
逐次レコメンデーション(SR)のための負のサンプル(イテム)を生成することを提案する。
アイテムに対する現在のSRモデルの学習されたユーザの好みに基づいて、各タイムステップで負の項目をサンプリングする。
4つの公開データセットの実験は、SRに高品質な負のサンプルを提供することの重要性を検証する。
論文 参考訳(メタデータ) (2022-08-07T05:44:13Z) - Asymptotically Unbiased Estimation for Delayed Feedback Modeling via
Label Correction [14.462884375151045]
遅延したフィードバックは、オンライン広告の変換率予測に不可欠である。
これまでの遅延したフィードバックモデリング手法は、正確なラベルを待ち、新鮮なフィードバックを消費する間のトレードオフのバランスをとる。
提案手法は, 即効性, 偽陰性, 実陰性, 遅延正サンプルの重み付けをそれぞれ補正することを目的として, 非バイアス推定を用いた遅延フィードバックモデリング(DEFUSE)を提案する。
論文 参考訳(メタデータ) (2022-02-14T03:31:09Z) - Mixture Proportion Estimation and PU Learning: A Modern Approach [47.34499672878859]
正の例とラベルなしの例のみを考えると、正逆負の正の正の分類器を正確に見積もることを望むかもしれない。
両方の問題の古典的な方法は、高次元の設定で分解される。
BBE(Best Bin Estimation)とCVIR(Value Ignoring Risk)の2つの簡単な手法を提案する。
論文 参考訳(メタデータ) (2021-11-01T14:42:23Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Simplify and Robustify Negative Sampling for Implicit Collaborative
Filtering [42.832851785261894]
本稿では,まず,モデル学習において潜在的に重要な事例が少数存在することを実証的に観察し,ネガティブな事例を新たに理解する。
次に、メモリに格納された高分散サンプルを好んで、修正されていない偽陰性問題に取り組む。
2つの合成データセットと3つの実世界のデータセットの実証結果は、我々の負サンプリング法の堅牢性と優位性を示している。
論文 参考訳(メタデータ) (2020-09-07T19:08:26Z) - Understanding Negative Sampling in Graph Representation Learning [87.35038268508414]
最適化目標と結果のばらつきを決定するためには, 正のサンプリングと同様に負のサンプリングが重要であることを示す。
我々は,自己コントラスト近似による正の分布を近似し,メトロポリス・ハスティングスによる負のサンプリングを高速化するメトロポリス・ハスティングス(MCNS)を提案する。
提案手法は,リンク予測,ノード分類,パーソナライズドレコメンデーションを含む,下流グラフ学習タスクをカバーする5つのデータセットに対して評価する。
論文 参考訳(メタデータ) (2020-05-20T06:25:21Z) - Learning from Positive and Unlabeled Data with Arbitrary Positive Shift [11.663072799764542]
本稿では,未ラベルデータに対して任意の非表現陽性データであってもPU学習が可能であることを示す。
これを統計的に一貫した2つの手法に統合し、任意の正のバイアスに対処する。
実験により,多数の実世界のデータセットにまたがる手法の有効性が示された。
論文 参考訳(メタデータ) (2020-02-24T13:53:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。