論文の概要: Probabilistic and Variational Recommendation Denoising
- arxiv url: http://arxiv.org/abs/2105.09605v1
- Date: Thu, 20 May 2021 08:59:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 18:47:32.958994
- Title: Probabilistic and Variational Recommendation Denoising
- Title(参考訳): 確率的・変動的勧告
- Authors: Yu Wang, Xin Xin, Zaiqiao Meng, Xiangnan He, Joemon Jose, Fuli Feng
- Abstract要約: 暗黙のフィードバックから学ぶことは、推奨システムの適用において最も一般的なケースの1つである。
本稿では,暗黙のフィードバックに対する確率的・変動的推薦を提案する。
提案したDPIとDVAEを4つの最先端レコメンデーションモデルに適用し、3つのデータセットで実験を行う。
- 参考スコア(独自算出の注目度): 56.879165033014026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from implicit feedback is one of the most common cases in the
application of recommender systems. Generally speaking, interacted examples are
considered as positive while negative examples are sampled from uninteracted
ones. However, noisy examples are prevalent in real-world implicit feedback. A
noisy positive example could be interacted but it actually leads to negative
user preference. A noisy negative example which is uninteracted because of
unawareness of the user could also denote potential positive user preference.
Conventional training methods overlook these noisy examples, leading to
sub-optimal recommendation. In this work, we propose probabilistic and
variational recommendation denoising for implicit feedback. Through an
empirical study, we find that different models make relatively similar
predictions on clean examples which denote the real user preference, while the
predictions on noisy examples vary much more across different models. Motivated
by this observation, we propose denoising with probabilistic inference (DPI)
which aims to minimize the KL-divergence between the real user preference
distributions parameterized by two recommendation models while maximize the
likelihood of data observation. We then show that DPI recovers the evidence
lower bound of an variational auto-encoder when the real user preference is
considered as the latent variables. This leads to our second learning framework
denoising with variational autoencoder (DVAE). We employ the proposed DPI and
DVAE on four state-of-the-art recommendation models and conduct experiments on
three datasets. Experimental results demonstrate that DPI and DVAE
significantly improve recommendation performance compared with normal training
and other denoising methods. Codes will be open-sourced.
- Abstract(参考訳): 暗黙のフィードバックから学ぶことは、推奨システムの適用において最も一般的なケースの1つである。
一般的には、相互作用した例は正と見なされ、負の例は非相互作用のものからサンプリングされる。
しかし、実世界の暗黙のフィードバックではノイズが多い。
ノイズの多いポジティブな例は相互作用できるが、実際にはネガティブなユーザの好みにつながる。
ユーザの無知のために相互作用しないノイズの多いネガティブな例は、潜在的にポジティブなユーザの好みを示すこともある。
従来の訓練方法はこれらの騒がしい例を見落とし、最適でない推奨に繋がる。
本研究では,暗黙的なフィードバックのための確率的・変動的推薦を提案する。
実験的な研究では、異なるモデルが実際のユーザーの好みを示すクリーンな例で比較的類似の予測をするのに対し、ノイズの多い例の予測は異なるモデルによって異なることが判明した。
本研究の目的は,データ観測の可能性を最大化しつつ,2つの推奨モデルによりパラメータ化される実際のユーザの嗜好分布間のKL偏差を最小化することである。
次に,実ユーザの嗜好を潜在変数として考えると,dpiは変分オートエンコーダのエビデンス下限を回復することを示す。
これは、変分オートエンコーダ(dvae)による第2の学習フレームワークにつながります。
提案したDPIとDVAEを4つの最先端レコメンデーションモデルに適用し、3つのデータセットで実験を行う。
実験の結果, DPIとDVAEは, 通常の訓練法および他の聴覚訓練法と比較して, 推奨性能を有意に向上した。
コードはオープンソースになる。
関連論文リスト
- Unintentional Unalignment: Likelihood Displacement in Direct Preference Optimization [60.176008034221404]
直接選好最適化(DPO)とその変種は、言語モデルと人間の選好の整合にますます利用されている。
以前の研究では、トレーニング中に好まれる反応の可能性が減少する傾向が見られた。
確率変位は破滅的になりうることを示し、確率質量を好ましくない反応から反対の意味の反応へとシフトさせる。
論文 参考訳(メタデータ) (2024-10-11T14:22:44Z) - Large Language Model Enhanced Hard Sample Identification for Denoising Recommendation [4.297249011611168]
暗黙のフィードバックは、しばしばレコメンデーションシステムを構築するために使われる。
従来の研究では、分散したパターンに基づいてノイズの多いサンプルを識別することで、これを緩和しようと試みてきた。
大規模言語モデル強化型ハードサンプルデノゲーションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-16T14:57:09Z) - Debiased Recommendation with Noisy Feedback [41.38490962524047]
収集データ中のMNARとOMEから予測モデルの非バイアス学習に対する交差点脅威について検討する。
まず, OME-EIB, OME-IPS, OME-DR推定器を設計する。
論文 参考訳(メタデータ) (2024-06-24T23:42:18Z) - Double Correction Framework for Denoising Recommendation [45.98207284259792]
暗黙のフィードバックでは、ノイズの多いサンプルが正確なユーザの好みの学習に影響を与える可能性がある。
一般的なソリューションは、モデルトレーニングフェーズでノイズの多いサンプルをドロップすることに基づいている。
提案手法では,勧告を記述するための二重補正フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-18T12:15:10Z) - Label Denoising through Cross-Model Agreement [43.5145547124009]
ノイズのあるラベルを記憶することはモデルの学習に影響を与え、準最適性能をもたらす可能性がある。
雑音ラベルから堅牢な機械学習モデルを学習するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-27T00:31:04Z) - Rethinking Missing Data: Aleatoric Uncertainty-Aware Recommendation [59.500347564280204]
本稿では, Aleatoric Uncertainty-aware Recommendation (AUR) フレームワークを提案する。
AURは、新しい不確実性推定器と通常のレコメンデータモデルで構成されている。
誤ラベルの可能性がペアの可能性を反映しているため、AURは不確実性に応じてレコメンデーションを行う。
論文 参考訳(メタデータ) (2022-09-22T04:32:51Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - CausPref: Causal Preference Learning for Out-of-Distribution
Recommendation [36.22965012642248]
現在のレコメンデータシステムは、現実的なシナリオにおけるユーザやアイテムの配布シフトに対して、依然として脆弱である。
本稿では,推奨特化DAG学習者を因果選好に基づく推薦フレームワークCausPrefに組み込むことを提案する。
当社のアプローチは、アウト・オブ・ディストリビューション・セッティングのタイプにおいて、ベンチマークモデルを大幅に上回っている。
論文 参考訳(メタデータ) (2022-02-08T16:42:03Z) - Investigating the Role of Negatives in Contrastive Representation
Learning [59.30700308648194]
ノイズコントラスト学習は教師なし表現学習の一般的な手法である。
我々は、これらのパラメータの1つの役割の曖昧さ、すなわち負の例の数に焦点をあてる。
結果が我々の理論と広く一致しているのに対して、我々の視覚実験はより悪質であり、性能は時々負の数に敏感である。
論文 参考訳(メタデータ) (2021-06-18T06:44:16Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。