論文の概要: Probabilistic and Variational Recommendation Denoising
- arxiv url: http://arxiv.org/abs/2105.09605v1
- Date: Thu, 20 May 2021 08:59:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 18:47:32.958994
- Title: Probabilistic and Variational Recommendation Denoising
- Title(参考訳): 確率的・変動的勧告
- Authors: Yu Wang, Xin Xin, Zaiqiao Meng, Xiangnan He, Joemon Jose, Fuli Feng
- Abstract要約: 暗黙のフィードバックから学ぶことは、推奨システムの適用において最も一般的なケースの1つである。
本稿では,暗黙のフィードバックに対する確率的・変動的推薦を提案する。
提案したDPIとDVAEを4つの最先端レコメンデーションモデルに適用し、3つのデータセットで実験を行う。
- 参考スコア(独自算出の注目度): 56.879165033014026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from implicit feedback is one of the most common cases in the
application of recommender systems. Generally speaking, interacted examples are
considered as positive while negative examples are sampled from uninteracted
ones. However, noisy examples are prevalent in real-world implicit feedback. A
noisy positive example could be interacted but it actually leads to negative
user preference. A noisy negative example which is uninteracted because of
unawareness of the user could also denote potential positive user preference.
Conventional training methods overlook these noisy examples, leading to
sub-optimal recommendation. In this work, we propose probabilistic and
variational recommendation denoising for implicit feedback. Through an
empirical study, we find that different models make relatively similar
predictions on clean examples which denote the real user preference, while the
predictions on noisy examples vary much more across different models. Motivated
by this observation, we propose denoising with probabilistic inference (DPI)
which aims to minimize the KL-divergence between the real user preference
distributions parameterized by two recommendation models while maximize the
likelihood of data observation. We then show that DPI recovers the evidence
lower bound of an variational auto-encoder when the real user preference is
considered as the latent variables. This leads to our second learning framework
denoising with variational autoencoder (DVAE). We employ the proposed DPI and
DVAE on four state-of-the-art recommendation models and conduct experiments on
three datasets. Experimental results demonstrate that DPI and DVAE
significantly improve recommendation performance compared with normal training
and other denoising methods. Codes will be open-sourced.
- Abstract(参考訳): 暗黙のフィードバックから学ぶことは、推奨システムの適用において最も一般的なケースの1つである。
一般的には、相互作用した例は正と見なされ、負の例は非相互作用のものからサンプリングされる。
しかし、実世界の暗黙のフィードバックではノイズが多い。
ノイズの多いポジティブな例は相互作用できるが、実際にはネガティブなユーザの好みにつながる。
ユーザの無知のために相互作用しないノイズの多いネガティブな例は、潜在的にポジティブなユーザの好みを示すこともある。
従来の訓練方法はこれらの騒がしい例を見落とし、最適でない推奨に繋がる。
本研究では,暗黙的なフィードバックのための確率的・変動的推薦を提案する。
実験的な研究では、異なるモデルが実際のユーザーの好みを示すクリーンな例で比較的類似の予測をするのに対し、ノイズの多い例の予測は異なるモデルによって異なることが判明した。
本研究の目的は,データ観測の可能性を最大化しつつ,2つの推奨モデルによりパラメータ化される実際のユーザの嗜好分布間のKL偏差を最小化することである。
次に,実ユーザの嗜好を潜在変数として考えると,dpiは変分オートエンコーダのエビデンス下限を回復することを示す。
これは、変分オートエンコーダ(dvae)による第2の学習フレームワークにつながります。
提案したDPIとDVAEを4つの最先端レコメンデーションモデルに適用し、3つのデータセットで実験を行う。
実験の結果, DPIとDVAEは, 通常の訓練法および他の聴覚訓練法と比較して, 推奨性能を有意に向上した。
コードはオープンソースになる。
関連論文リスト
- Label Denoising through Cross-Model Agreement [43.5145547124009]
ノイズのあるラベルを記憶することはモデルの学習に影響を与え、準最適性能をもたらす可能性がある。
雑音ラベルから堅牢な機械学習モデルを学習するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-27T00:31:04Z) - Latent User Intent Modeling for Sequential Recommenders [92.66888409973495]
逐次リコメンデータモデルは、プラットフォーム上での氏のインタラクション履歴に基づいて、ユーザが次に対話する可能性のあるアイテムを予測することを学習する。
しかし、ほとんどのシーケンシャルなレコメンデータは、ユーザの意図に対する高いレベルの理解を欠いている。
したがって、インテントモデリングはユーザー理解と長期ユーザーエクスペリエンスの最適化に不可欠である。
論文 参考訳(メタデータ) (2022-11-17T19:00:24Z) - Rethinking Missing Data: Aleatoric Uncertainty-Aware Recommendation [59.500347564280204]
本稿では, Aleatoric Uncertainty-aware Recommendation (AUR) フレームワークを提案する。
AURは、新しい不確実性推定器と通常のレコメンデータモデルで構成されている。
誤ラベルの可能性がペアの可能性を反映しているため、AURは不確実性に応じてレコメンデーションを行う。
論文 参考訳(メタデータ) (2022-09-22T04:32:51Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - CausPref: Causal Preference Learning for Out-of-Distribution
Recommendation [36.22965012642248]
現在のレコメンデータシステムは、現実的なシナリオにおけるユーザやアイテムの配布シフトに対して、依然として脆弱である。
本稿では,推奨特化DAG学習者を因果選好に基づく推薦フレームワークCausPrefに組み込むことを提案する。
当社のアプローチは、アウト・オブ・ディストリビューション・セッティングのタイプにおいて、ベンチマークモデルを大幅に上回っている。
論文 参考訳(メタデータ) (2022-02-08T16:42:03Z) - Robust Recommendation with Implicit Feedback via Eliminating the Effects
of Unexpected Behaviors [5.419520515385743]
本稿では,予期せぬ行動の影響を排除するために,MPM(Multi-Preferences Model)を提案する。
映画の2つのデータセットとe-retailingについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-12-21T07:29:23Z) - Investigating the Role of Negatives in Contrastive Representation
Learning [59.30700308648194]
ノイズコントラスト学習は教師なし表現学習の一般的な手法である。
我々は、これらのパラメータの1つの役割の曖昧さ、すなわち負の例の数に焦点をあてる。
結果が我々の理論と広く一致しているのに対して、我々の視覚実験はより悪質であり、性能は時々負の数に敏感である。
論文 参考訳(メタデータ) (2021-06-18T06:44:16Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Sampler Design for Implicit Feedback Data by Noisy-label Robust Learning [32.76804332450971]
暗黙的なフィードバックデータに対する雑音ラベルの頑健な学習に基づく適応型サンプリング器を設計する。
モデルを用いてユーザの好みを予測し、観測されたデータラベルの可能性を最大化して学習する。
次に、これらのノイズラベルのリスクを検討し、ノイズラベルのRobust BPOを提案する。
論文 参考訳(メタデータ) (2020-06-28T05:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。