論文の概要: Improved Estimation of Ranks for Learning Item Recommenders with Negative Sampling
- arxiv url: http://arxiv.org/abs/2410.06371v2
- Date: Thu, 10 Oct 2024 19:58:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 13:33:12.577506
- Title: Improved Estimation of Ranks for Learning Item Recommenders with Negative Sampling
- Title(参考訳): ネガティブサンプリングによる項目推薦者のランク推定の改善
- Authors: Anushya Subbiah, Steffen Rendle, Vikram Aggarwal,
- Abstract要約: レコメンデーションシステムでは、推奨アイテムの数が増加している。
このコストを下げるために、ネガティブな項目をサンプリングすることが一般的になった。
本研究では, 負のサンプリングによって生じるバイアスの補正の利点を実証する。
- 参考スコア(独自算出の注目度): 4.316676800486521
- License:
- Abstract: In recommendation systems, there has been a growth in the number of recommendable items (# of movies, music, products). When the set of recommendable items is large, training and evaluation of item recommendation models becomes computationally expensive. To lower this cost, it has become common to sample negative items. However, the recommendation quality can suffer from biases introduced by traditional negative sampling mechanisms. In this work, we demonstrate the benefits from correcting the bias introduced by sampling of negatives. We first provide sampled batch version of the well-studied WARP and LambdaRank methods. Then, we present how these methods can benefit from improved ranking estimates. Finally, we evaluate the recommendation quality as a result of correcting rank estimates and demonstrate that WARP and LambdaRank can be learned efficiently with negative sampling and our proposed correction technique.
- Abstract(参考訳): レコメンデーションシステムでは、推奨アイテム(映画、音楽、製品など)の数が増加している。
推奨項目の集合が大きくなると、推奨項目モデルのトレーニングと評価が計算コストが高くなる。
このコストを下げるために、ネガティブな項目をサンプリングすることが一般的になった。
しかし、レコメンデーション品質は、従来のネガティブサンプリングメカニズムによって導入されたバイアスに悩まされる可能性がある。
本研究では, 負のサンプリングによって生じるバイアスの補正の利点を実証する。
まず、よく研究されたWARPとLambdaRankメソッドのバッチバージョンをサンプルとして提供します。
次に,これらの手法がランキング評価の改善に有効であることを示す。
最後に、ランク推定の補正の結果として推奨品質を評価し、負のサンプリングと提案手法を用いてWARPとLambdaRankを効率的に学習できることを実証した。
関連論文リスト
- Learning from Negative User Feedback and Measuring Responsiveness for
Sequential Recommenders [13.762960304406016]
シーケンシャルレコメンデータのトレーニング目標に、明示的かつ暗黙的なネガティブなユーザフィードバックを導入する。
大規模産業レコメンデーションシステムを用いた実演実験により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-08-23T17:16:07Z) - Generating Negative Samples for Sequential Recommendation [83.60655196391855]
逐次レコメンデーション(SR)のための負のサンプル(イテム)を生成することを提案する。
アイテムに対する現在のSRモデルの学習されたユーザの好みに基づいて、各タイムステップで負の項目をサンプリングする。
4つの公開データセットの実験は、SRに高品質な負のサンプルを提供することの重要性を検証する。
論文 参考訳(メタデータ) (2022-08-07T05:44:13Z) - Breaking Feedback Loops in Recommender Systems with Causal Inference [99.22185950608838]
近年の研究では、フィードバックループが推奨品質を損なう可能性があり、ユーザの振る舞いを均質化している。
本稿では、因果推論を用いてフィードバックループを確実に破壊するアルゴリズムCAFLを提案する。
従来の補正手法と比較して,CAFLは推奨品質を向上することを示す。
論文 参考訳(メタデータ) (2022-07-04T17:58:39Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - Evaluating the Predictive Performance of Positive-Unlabelled
Classifiers: a brief critical review and practical recommendations for
improvement [77.34726150561087]
Positive-Unlabelled (PU) 学習は機械学習の領域として成長している。
本稿では、PU分類器を提案する51の論文において、主要なPU学習評価手法と予測精度の選択について批判的にレビューする。
論文 参考訳(メタデータ) (2022-06-06T08:31:49Z) - Negative Sampling for Recommendation [7.758275614033198]
高品質なネガティブなインスタンスを効果的にサンプルする方法は、レコメンデーションモデルを適切にトレーニングするために重要である。
我々は、高品質なネガティブは、テクスチュンフォームネスとテクスチュンバイアスネスの両方であるべきだと論じる。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Unbiased Learning for the Causal Effect of Recommendation [8.849159720632612]
本稿では,推薦の因果効果に対する非バイアス学習フレームワークを提案する。
ランキング尺度の因果効果拡張のための非バイアス学習法を開発した。
論文 参考訳(メタデータ) (2020-08-11T07:30:44Z) - Addressing Class-Imbalance Problem in Personalized Ranking [47.11372043636176]
ペアランク付けモデルのクラスバランス問題を緩和するために,効率的なエンファンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アン
VINSは、与えられた正の項目よりも大きい負の候補を受け入れる傾向にある確率を拒絶するバイアスサンプリングである。
論文 参考訳(メタデータ) (2020-05-19T08:11:26Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。