論文の概要: Generating Negative Samples for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2208.03645v1
- Date: Sun, 7 Aug 2022 05:44:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 13:48:36.423678
- Title: Generating Negative Samples for Sequential Recommendation
- Title(参考訳): シーケンスレコメンデーションのための負のサンプルの生成
- Authors: Yongjun Chen, Jia Li, Zhiwei Liu, Nitish Shirish Keskar, Huan Wang,
Julian McAuley, Caiming Xiong
- Abstract要約: 逐次レコメンデーション(SR)のための負のサンプル(イテム)を生成することを提案する。
アイテムに対する現在のSRモデルの学習されたユーザの好みに基づいて、各タイムステップで負の項目をサンプリングする。
4つの公開データセットの実験は、SRに高品質な負のサンプルを提供することの重要性を検証する。
- 参考スコア(独自算出の注目度): 83.60655196391855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To make Sequential Recommendation (SR) successful, recent works focus on
designing effective sequential encoders, fusing side information, and mining
extra positive self-supervision signals. The strategy of sampling negative
items at each time step is less explored. Due to the dynamics of users'
interests and model updates during training, considering randomly sampled items
from a user's non-interacted item set as negatives can be uninformative. As a
result, the model will inaccurately learn user preferences toward items.
Identifying informative negatives is challenging because informative negative
items are tied with both dynamically changed interests and model parameters
(and sampling process should also be efficient). To this end, we propose to
Generate Negative Samples (items) for SR (GenNi). A negative item is sampled at
each time step based on the current SR model's learned user preferences toward
items. An efficient implementation is proposed to further accelerate the
generation process, making it scalable to large-scale recommendation tasks.
Extensive experiments on four public datasets verify the importance of
providing high-quality negative samples for SR and demonstrate the
effectiveness and efficiency of GenNi.
- Abstract(参考訳): シーケンシャルレコメンデーション(SR)を成功させるために、最近の研究は、効果的なシーケンシャルエンコーダの設計、サイド情報の融合、追加の正の自己超越信号のマイニングに重点を置いている。
各ステップで負の項目をサンプリングする戦略は、より少ない。
トレーニング中のユーザの興味とモデル更新のダイナミクスのため、ユーザの非相互作用アイテムセットからランダムにサンプリングされたアイテムを否定的に考えることは不可能である。
その結果、モデルはアイテムに対するユーザの好みを不正確に学習する。
情報的ネガティブな項目が動的に変化する関心事とモデルパラメータの両方に結びついているため、情報的ネガティブな項目を特定することは困難である。
そこで我々は,SR (GenNi) に対して負のサンプル (items) を生成することを提案する。
現在のsrモデルの学習したユーザ嗜好に基づいて、各タイムステップに負の項目をサンプリングする。
大規模レコメンデーションタスクに拡張性を持たせるため、生成プロセスをさらに高速化する効率的な実装が提案されている。
4つの公開データセットに対する大規模な実験は、SRに高品質な負のサンプルを提供することの重要性を検証し、GenNiの有効性と効率を実証する。
関連論文リスト
- Intent-Enhanced Data Augmentation for Sequential Recommendation [20.639934432829325]
逐次レコメンデーション(textbfIESRec)のためのインテント強化データ拡張手法を提案する。
IESRecは、インテント・セグメンテーションの挿入を通じて、ユーザの行動シーケンスに基づいて、正と負のサンプルを構築する。
生成した正および負のサンプルは、対比損失関数を構築するために使用され、自己教師付きトレーニングを通じて推奨性能を高める。
論文 参考訳(メタデータ) (2024-10-11T07:23:45Z) - Evaluating Performance and Bias of Negative Sampling in Large-Scale Sequential Recommendation Models [0.0]
大規模産業レコメンデーションモデルは、数百万から数十億のオプションを含むカタログから最も関連性の高いアイテムを予測する。
これらのモデルを効率的に訓練するために、関連する項目ごとに巨大なカタログから無関係な項目(負のサンプル)の小さなセットが選択される。
本研究は,大規模シーケンシャルレコメンデーションモデルの負サンプリング法を選択する際のトレードオフの実践的ガイドとして機能する。
論文 参考訳(メタデータ) (2024-10-08T00:23:17Z) - Better Sampling of Negatives for Distantly Supervised Named Entity
Recognition [39.264878763160766]
本稿では, 正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正
提案手法は,4つの遠隔教師付きNERデータセットに対して一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2023-05-22T15:35:39Z) - SimANS: Simple Ambiguous Negatives Sampling for Dense Text Retrieval [126.22182758461244]
評価結果によると, 正の値にランク付けされた負の値は, 一般的にはより情報的であり, 偽陰の可能性が低いことがわかった。
そこで本研究では,よりあいまいな負のサンプリングに新しいサンプリング確率分布を組み込んだ,単純な曖昧な負のサンプリング手法であるSimANSを提案する。
論文 参考訳(メタデータ) (2022-10-21T07:18:05Z) - ELECRec: Training Sequential Recommenders as Discriminators [94.93227906678285]
シーケンシャルレコメンデーションは、しばしば生成タスク、すなわち、ユーザの関心事の次の項目を生成するためにシーケンシャルエンコーダを訓練すると考えられる。
我々は、ジェネレータではなく、識別器としてシーケンシャルレコメンデータを訓練することを提案する。
本手法は,サンプル項目が「現実の」対象項目であるか否かを識別するために識別器を訓練する。
論文 参考訳(メタデータ) (2022-04-05T06:19:45Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。