論文の概要: Diverse Negative Sampling for Implicit Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2508.14468v1
- Date: Wed, 20 Aug 2025 06:48:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.364141
- Title: Diverse Negative Sampling for Implicit Collaborative Filtering
- Title(参考訳): 入出力協調フィルタリングのための逆負サンプリング
- Authors: Yueqing Xuan, Kacper Sokol, Mark Sanderson, Jeffrey Chan,
- Abstract要約: 負のトレーニングデータにおける多様性を考慮したDivNS(Diverse Negative Smpling)を提案する。
DivNSは、大きな好みスコアを持つハードネガティブアイテムを見つけ、ユーザ固有のキャッシュを構築する。
キャッシュからさまざまなネガティブアイテムのサブセットを選択し、ユーザのハードネガティブとの相違を保証します。
結果として得られる合成陰性は情報的かつ多様であり、推薦者はより広い項目空間を学習し、その一般化性を向上させることができる。
- 参考スコア(独自算出の注目度): 26.57812122315108
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit collaborative filtering recommenders are usually trained to learn user positive preferences. Negative sampling, which selects informative negative items to form negative training data, plays a crucial role in this process. Since items are often clustered in the latent space, existing negative sampling strategies normally oversample negative items from the dense regions. This leads to homogeneous negative data and limited model expressiveness. In this paper, we propose Diverse Negative Sampling (DivNS), a novel approach that explicitly accounts for diversity in negative training data during the negative sampling process. DivNS first finds hard negative items with large preference scores and constructs user-specific caches that store unused but highly informative negative samples. Then, its diversity-augmented sampler selects a diverse subset of negative items from the cache while ensuring dissimilarity from the user's hard negatives. Finally, a synthetic negatives generator combines the selected diverse negatives with hard negatives to form more effective training data. The resulting synthetic negatives are both informative and diverse, enabling recommenders to learn a broader item space and improve their generalisability. Extensive experiments on four public datasets demonstrate the effectiveness of DivNS in improving recommendation quality while maintaining computational efficiency.
- Abstract(参考訳): 暗黙の協調フィルタリングレコメンダは、通常、ユーザの肯定的な好みを学ぶために訓練される。
負の学習データを形成するために情報的負の項目を選択する負のサンプリングは、このプロセスにおいて重要な役割を果たす。
アイテムはしばしば潜在空間に集束されるため、既存の負のサンプリング戦略は通常、密度の高い領域から負のアイテムをオーバーサンプリングする。
これは、均一な負のデータと限定されたモデル表現性をもたらす。
本稿では, 負のサンプリング過程において, 負のトレーニングデータの多様性を明示的に考慮する新しい手法であるDiverse Negative Smpling (DivNS)を提案する。
DivNSはまず、大きな好みスコアを持つハードネガティブアイテムを見つけ、使用されていないが、非常に有意義なネガティブなサンプルを格納するユーザ固有のキャッシュを構築する。
そして、その多様性強化されたサンプルは、ユーザのハードネガティブとの相違性を確保しつつ、キャッシュからさまざまなネガティブアイテムのサブセットを選択する。
最後に、合成陰性発生器は、選択された多様な陰性と強陰性を組み合わせることにより、より効果的な訓練データを形成する。
結果として得られる合成陰性は情報的かつ多様であり、推薦者はより広い項目空間を学習し、その一般化性を向上させることができる。
4つの公開データセットに対する大規模な実験は、DivNSが計算効率を維持しながらレコメンデーション品質の改善に有効であることを実証している。
関連論文リスト
- SyNeg: LLM-Driven Synthetic Hard-Negatives for Dense Retrieval [45.971786380884126]
Dense Search (DR) の性能は, 陰性サンプリングの品質に大きく影響される。
大規模言語モデル(LLM)の最近の進歩は、文脈的にリッチで多様な負のサンプルを生成することで革新的なソリューションを提供する。
本研究では,LLMを用いて高品質な硬質負のサンプルを合成するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-23T03:49:00Z) - Contrastive Learning with Negative Sampling Correction [52.990001829393506]
PUCL(Positive-Unlabeled Contrastive Learning)という新しいコントラスト学習手法を提案する。
PUCLは生成した負のサンプルをラベルのないサンプルとして扱い、正のサンプルからの情報を用いて、対照的な損失のバイアスを補正する。
PUCLは一般的なコントラスト学習問題に適用でき、様々な画像やグラフの分類タスクにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-01-13T11:18:18Z) - Your Negative May not Be True Negative: Boosting Image-Text Matching
with False Negative Elimination [62.18768931714238]
提案手法は, サンプリングによる新規な偽陰性除去 (FNE) 戦略である。
その結果,提案した偽陰性除去戦略の優位性が示された。
論文 参考訳(メタデータ) (2023-08-08T16:31:43Z) - Better Sampling of Negatives for Distantly Supervised Named Entity
Recognition [39.264878763160766]
本稿では, 正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正
提案手法は,4つの遠隔教師付きNERデータセットに対して一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2023-05-22T15:35:39Z) - SimANS: Simple Ambiguous Negatives Sampling for Dense Text Retrieval [126.22182758461244]
評価結果によると, 正の値にランク付けされた負の値は, 一般的にはより情報的であり, 偽陰の可能性が低いことがわかった。
そこで本研究では,よりあいまいな負のサンプリングに新しいサンプリング確率分布を組み込んだ,単純な曖昧な負のサンプリング手法であるSimANSを提案する。
論文 参考訳(メタデータ) (2022-10-21T07:18:05Z) - Generating Negative Samples for Sequential Recommendation [83.60655196391855]
逐次レコメンデーション(SR)のための負のサンプル(イテム)を生成することを提案する。
アイテムに対する現在のSRモデルの学習されたユーザの好みに基づいて、各タイムステップで負の項目をサンプリングする。
4つの公開データセットの実験は、SRに高品質な負のサンプルを提供することの重要性を検証する。
論文 参考訳(メタデータ) (2022-08-07T05:44:13Z) - Negative Sampling for Recommendation [7.758275614033198]
高品質なネガティブなインスタンスを効果的にサンプルする方法は、レコメンデーションモデルを適切にトレーニングするために重要である。
我々は、高品質なネガティブは、テクスチュンフォームネスとテクスチュンバイアスネスの両方であるべきだと論じる。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Contrastive Learning with Hard Negative Samples [80.12117639845678]
我々は, 厳密な陰性サンプルを選択するために, 教師なしサンプリング手法を新たに開発する。
このサンプリングの制限ケースは、各クラスをしっかりとクラスタ化し、可能な限り異なるクラスを遠くにプッシュする表現をもたらす。
提案手法は、複数のモードをまたいだダウンストリーム性能を改善し、実装するコード行数が少なく、計算オーバーヘッドを伴わない。
論文 参考訳(メタデータ) (2020-10-09T14:18:53Z) - Simplify and Robustify Negative Sampling for Implicit Collaborative
Filtering [42.832851785261894]
本稿では,まず,モデル学習において潜在的に重要な事例が少数存在することを実証的に観察し,ネガティブな事例を新たに理解する。
次に、メモリに格納された高分散サンプルを好んで、修正されていない偽陰性問題に取り組む。
2つの合成データセットと3つの実世界のデータセットの実証結果は、我々の負サンプリング法の堅牢性と優位性を示している。
論文 参考訳(メタデータ) (2020-09-07T19:08:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。