論文の概要: Generating Negative Samples for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2208.03645v1
- Date: Sun, 7 Aug 2022 05:44:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 13:48:36.423678
- Title: Generating Negative Samples for Sequential Recommendation
- Title(参考訳): シーケンスレコメンデーションのための負のサンプルの生成
- Authors: Yongjun Chen, Jia Li, Zhiwei Liu, Nitish Shirish Keskar, Huan Wang,
Julian McAuley, Caiming Xiong
- Abstract要約: 逐次レコメンデーション(SR)のための負のサンプル(イテム)を生成することを提案する。
アイテムに対する現在のSRモデルの学習されたユーザの好みに基づいて、各タイムステップで負の項目をサンプリングする。
4つの公開データセットの実験は、SRに高品質な負のサンプルを提供することの重要性を検証する。
- 参考スコア(独自算出の注目度): 83.60655196391855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To make Sequential Recommendation (SR) successful, recent works focus on
designing effective sequential encoders, fusing side information, and mining
extra positive self-supervision signals. The strategy of sampling negative
items at each time step is less explored. Due to the dynamics of users'
interests and model updates during training, considering randomly sampled items
from a user's non-interacted item set as negatives can be uninformative. As a
result, the model will inaccurately learn user preferences toward items.
Identifying informative negatives is challenging because informative negative
items are tied with both dynamically changed interests and model parameters
(and sampling process should also be efficient). To this end, we propose to
Generate Negative Samples (items) for SR (GenNi). A negative item is sampled at
each time step based on the current SR model's learned user preferences toward
items. An efficient implementation is proposed to further accelerate the
generation process, making it scalable to large-scale recommendation tasks.
Extensive experiments on four public datasets verify the importance of
providing high-quality negative samples for SR and demonstrate the
effectiveness and efficiency of GenNi.
- Abstract(参考訳): シーケンシャルレコメンデーション(SR)を成功させるために、最近の研究は、効果的なシーケンシャルエンコーダの設計、サイド情報の融合、追加の正の自己超越信号のマイニングに重点を置いている。
各ステップで負の項目をサンプリングする戦略は、より少ない。
トレーニング中のユーザの興味とモデル更新のダイナミクスのため、ユーザの非相互作用アイテムセットからランダムにサンプリングされたアイテムを否定的に考えることは不可能である。
その結果、モデルはアイテムに対するユーザの好みを不正確に学習する。
情報的ネガティブな項目が動的に変化する関心事とモデルパラメータの両方に結びついているため、情報的ネガティブな項目を特定することは困難である。
そこで我々は,SR (GenNi) に対して負のサンプル (items) を生成することを提案する。
現在のsrモデルの学習したユーザ嗜好に基づいて、各タイムステップに負の項目をサンプリングする。
大規模レコメンデーションタスクに拡張性を持たせるため、生成プロセスをさらに高速化する効率的な実装が提案されている。
4つの公開データセットに対する大規模な実験は、SRに高品質な負のサンプルを提供することの重要性を検証し、GenNiの有効性と効率を実証する。
関連論文リスト
- Future Sight and Tough Fights: Revolutionizing Sequential Recommendation with FENRec [31.264334651290437]
逐次レコメンデーション(SR)システムは、時間順のインタラクションシーケンスを分析することによって、ユーザの好みを予測する。
SRの一般的な課題は、ユーザーが通常、限られた数のアイテムとのみ対話するため、データスパシティである。
シーケンシャルレコメンデーション(FENRec)におけるコントラスト学習のための継続ネガティクスを用いた今後のデータ活用を提案する。
論文 参考訳(メタデータ) (2024-12-16T09:20:29Z) - Evaluating Performance and Bias of Negative Sampling in Large-Scale Sequential Recommendation Models [0.0]
大規模産業レコメンデーションモデルは、数百万から数十億のオプションを含むカタログから最も関連性の高いアイテムを予測する。
これらのモデルを効率的に訓練するために、関連する項目ごとに巨大なカタログから無関係な項目(負のサンプル)の小さなセットが選択される。
本研究は,大規模シーケンシャルレコメンデーションモデルの負サンプリング法を選択する際のトレードオフの実践的ガイドとして機能する。
論文 参考訳(メタデータ) (2024-10-08T00:23:17Z) - AutoSAM: Towards Automatic Sampling of User Behaviors for Sequential Recommender Systems [48.461157194277504]
本稿では,歴史的挙動を一様に扱わない汎用的な自動サンプリングフレームワークであるAutoSAMを提案する。
具体的には、AutoSAMは、サンプル層を追加して標準のシーケンシャルレコメンデーションアーキテクチャを拡張し、生入力のスキュー分布を適応的に学習する。
理論的には、Future PredictionやSequence Perplexityなどの多目的サンプリング報酬を設計し、フレームワーク全体をエンドツーエンドで最適化する。
論文 参考訳(メタデータ) (2023-11-01T09:25:21Z) - Better Sampling of Negatives for Distantly Supervised Named Entity
Recognition [39.264878763160766]
本稿では, 正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正
提案手法は,4つの遠隔教師付きNERデータセットに対して一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2023-05-22T15:35:39Z) - ELECRec: Training Sequential Recommenders as Discriminators [94.93227906678285]
シーケンシャルレコメンデーションは、しばしば生成タスク、すなわち、ユーザの関心事の次の項目を生成するためにシーケンシャルエンコーダを訓練すると考えられる。
我々は、ジェネレータではなく、識別器としてシーケンシャルレコメンデータを訓練することを提案する。
本手法は,サンプル項目が「現実の」対象項目であるか否かを識別するために識別器を訓練する。
論文 参考訳(メタデータ) (2022-04-05T06:19:45Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。