論文の概要: Negative Sampling for Recommendation
- arxiv url: http://arxiv.org/abs/2204.06520v1
- Date: Sat, 2 Apr 2022 09:50:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-17 08:14:29.394062
- Title: Negative Sampling for Recommendation
- Title(参考訳): 勧告に対する否定的サンプリング
- Authors: Bin Liu and Bang Wang
- Abstract要約: 高品質なネガティブなインスタンスを効果的にサンプルする方法は、レコメンデーションモデルを適切にトレーニングするために重要である。
我々は、高品質なネガティブは、テクスチュンフォームネスとテクスチュンバイアスネスの両方であるべきだと論じる。
- 参考スコア(独自算出の注目度): 7.758275614033198
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How to effectively sample high-quality negative instances is important for
well training a recommendation model. We argue that a high-quality negative
should be both \textit{informativeness} and \textit{unbiasedness}. Although
previous studies have proposed some approaches to address the informativeness
in negative sampling, few has been done to discriminating false negative from
true negative for unbiased negative sampling, not to mention taking both into
consideration. This paper first adopts a parameter learning perspective to
analyze negative informativeness and unbiasedness in loss gradient-based model
training. We argue that both negative sampling and collaborative filtering
include an implicit task of negative classification, from which we report an
insightful yet beneficial finding about the order relation in predicted
negatives' scores. Based on our finding and by regarding negatives as random
variables, we next derive the class condition density of true negatives and
that of false negatives. We also design a Bayesian classifier for negative
classification, from which we define a quantitative unbiasedness measure for
negatives. Finally, we propose to use a harmonic mean of informativeness and
unbiasedness to sample high-quality negatives. Experimental studies validate
the superiority of our negative sampling algorithm over the peers in terms of
better sampling quality and better recommendation performance.
- Abstract(参考訳): 高品質なネガティブなインスタンスを効果的にサンプルする方法は、レコメンデーションモデルを適切にトレーニングするために重要である。
我々は、高品質な負は \textit{informativeness} と \textit{unbiasedness} の両方であるべきだと主張する。
従来の研究では、陰性サンプリングにおける情報性に対処するいくつかのアプローチが提案されているが、偽陰性サンプリングと真陰性サンプリングを区別する試みはほとんど行われていない。
本稿では,まずパラメータ学習の観点から,損失勾配に基づくモデルトレーニングにおける負のインフォメーション性と偏りを分析する。
否定的サンプリングと協調的フィルタリングの両方に負の分類の暗黙的なタスクが含まれており、そこから予測された負のスコアにおける順序関係についての洞察に富むが有益な発見を報告している。
我々の発見と確率変数としての負について、次に真負のクラス条件密度と偽負のクラス条件密度を導出する。
また,否定分類のためのベイズ分類器も設計し,そこから負の量的不偏性尺度を定義する。
最後に,高品質な負をサンプリングするために,情報量と偏りの調和平均を用いることを提案する。
実験では, サンプリング品質の向上と推薦性能向上の観点から, 負サンプリングアルゴリズムが他よりも優れていることを検証した。
関連論文リスト
- Contrastive Learning with Negative Sampling Correction [52.990001829393506]
PUCL(Positive-Unlabeled Contrastive Learning)という新しいコントラスト学習手法を提案する。
PUCLは生成した負のサンプルをラベルのないサンプルとして扱い、正のサンプルからの情報を用いて、対照的な損失のバイアスを補正する。
PUCLは一般的なコントラスト学習問題に適用でき、様々な画像やグラフの分類タスクにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-01-13T11:18:18Z) - Your Negative May not Be True Negative: Boosting Image-Text Matching
with False Negative Elimination [62.18768931714238]
提案手法は, サンプリングによる新規な偽陰性除去 (FNE) 戦略である。
その結果,提案した偽陰性除去戦略の優位性が示された。
論文 参考訳(メタデータ) (2023-08-08T16:31:43Z) - SimANS: Simple Ambiguous Negatives Sampling for Dense Text Retrieval [126.22182758461244]
評価結果によると, 正の値にランク付けされた負の値は, 一般的にはより情報的であり, 偽陰の可能性が低いことがわかった。
そこで本研究では,よりあいまいな負のサンプリングに新しいサンプリング確率分布を組み込んだ,単純な曖昧な負のサンプリング手法であるSimANSを提案する。
論文 参考訳(メタデータ) (2022-10-21T07:18:05Z) - Entity Aware Negative Sampling with Auxiliary Loss of False Negative
Prediction for Knowledge Graph Embedding [0.0]
我々はEANS(Entity Aware Negative Smpling)と呼ばれる新しい手法を提案する。
EANSは、整列した実体指数空間にガウス分布を採用することにより、正に類似した負の実体をサンプリングすることができる。
提案手法は, 正のサンプルサイズによらず高品質な負のサンプルを生成し, 偽の負のサンプルの影響を効果的に軽減することができる。
論文 参考訳(メタデータ) (2022-10-12T14:27:51Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Understanding Negative Sampling in Graph Representation Learning [87.35038268508414]
最適化目標と結果のばらつきを決定するためには, 正のサンプリングと同様に負のサンプリングが重要であることを示す。
我々は,自己コントラスト近似による正の分布を近似し,メトロポリス・ハスティングスによる負のサンプリングを高速化するメトロポリス・ハスティングス(MCNS)を提案する。
提案手法は,リンク予測,ノード分類,パーソナライズドレコメンデーションを含む,下流グラフ学習タスクをカバーする5つのデータセットに対して評価する。
論文 参考訳(メタデータ) (2020-05-20T06:25:21Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。