論文の概要: Sampler Design for Implicit Feedback Data by Noisy-label Robust Learning
- arxiv url: http://arxiv.org/abs/2007.07204v1
- Date: Sun, 28 Jun 2020 05:31:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 02:23:24.822810
- Title: Sampler Design for Implicit Feedback Data by Noisy-label Robust Learning
- Title(参考訳): 雑音ラベルロバスト学習による入射フィードバックデータのサンプリング設計
- Authors: Wenhui Yu and Zheng Qin
- Abstract要約: 暗黙的なフィードバックデータに対する雑音ラベルの頑健な学習に基づく適応型サンプリング器を設計する。
モデルを用いてユーザの好みを予測し、観測されたデータラベルの可能性を最大化して学習する。
次に、これらのノイズラベルのリスクを検討し、ノイズラベルのRobust BPOを提案する。
- 参考スコア(独自算出の注目度): 32.76804332450971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit feedback data is extensively explored in recommendation as it is
easy to collect and generally applicable. However, predicting users' preference
on implicit feedback data is a challenging task since we can only observe
positive (voted) samples and unvoted samples. It is difficult to distinguish
between the negative samples and unlabeled positive samples from the unvoted
ones. Existing works, such as Bayesian Personalized Ranking (BPR), sample
unvoted items as negative samples uniformly, therefore suffer from a critical
noisy-label issue. To address this gap, we design an adaptive sampler based on
noisy-label robust learning for implicit feedback data.
To formulate the issue, we first introduce Bayesian Point-wise Optimization
(BPO) to learn a model, e.g., Matrix Factorization (MF), by maximum likelihood
estimation. We predict users' preferences with the model and learn it by
maximizing likelihood of observed data labels, i.e., a user prefers her
positive samples and has no interests in her unvoted samples. However, in
reality, a user may have interests in some of her unvoted samples, which are
indeed positive samples mislabeled as negative ones. We then consider the risk
of these noisy labels, and propose a Noisy-label Robust BPO (NBPO). NBPO also
maximizes the observation likelihood while connects users' preference and
observed labels by the likelihood of label flipping based on the Bayes'
theorem. In NBPO, a user prefers her true positive samples and shows no
interests in her true negative samples, hence the optimization quality is
dramatically improved. Extensive experiments on two public real-world datasets
show the significant improvement of our proposed optimization methods.
- Abstract(参考訳): 暗黙のフィードバックデータは、簡単に収集でき、一般に適用できるため、広く推奨されている。
しかし,暗黙的なフィードバックデータに対するユーザの好みの予測は,肯定的な(指示された)サンプルと無指示のサンプルしか観察できないため,難しい課題である。
負のサンプルとラベルなしの正のサンプルとを区別することは困難である。
ベイジアン・パーソナライズド・ランキング (bpr) のような既存の作品では、負のサンプルとして未入力のアイテムが一様にサンプリングされているため、ノイズの多い問題が発生している。
このギャップに対処するために,暗黙的フィードバックデータに対する雑音ラベルロバスト学習に基づく適応型サンプリング器を設計する。
この問題を定式化するために、まずベイズ点最適化(BPO)を導入し、最大値推定により行列因子化(MF)などのモデルを学ぶ。
我々は,モデルに対するユーザの好みを予測し,観察されたデータラベルの確率を最大化することで学習する。
しかし、実際には、ユーザは、偽造されていないサンプルのいくつかに興味を持っているかもしれない。
次に,これらの雑音ラベルのリスクを検討し,雑音ラベルロバストbpo(nbpo)を提案する。
NBPOはまた、ベイズの定理に基づくラベルフリップの可能性によって、ユーザの好みと観測ラベルを接続しながら観察可能性も最大化する。
NBPOでは、ユーザは正の正のサンプルを好み、正の負のサンプルに何の関心も示さないため、最適化品質は劇的に改善される。
2つのパブリックな実世界のデータセットに関する広範囲な実験は、提案手法の大幅な改善を示している。
関連論文リスト
- Double Correction Framework for Denoising Recommendation [45.98207284259792]
暗黙のフィードバックでは、ノイズの多いサンプルが正確なユーザの好みの学習に影響を与える可能性がある。
一般的なソリューションは、モデルトレーニングフェーズでノイズの多いサンプルをドロップすることに基づいている。
提案手法では,勧告を記述するための二重補正フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-18T12:15:10Z) - Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - Data Pruning via Moving-one-Sample-out [61.45441981346064]
我々は移動1サンプルアウト(MoSo)と呼ばれる新しいデータ処理手法を提案する。
MoSoは、トレーニングセットから最も分かりにくいサンプルを特定し、削除することを目的としている。
実験結果から,MoSoは高プルーニング比で高い性能劣化を効果的に緩和することが示された。
論文 参考訳(メタデータ) (2023-10-23T08:00:03Z) - Better Sampling of Negatives for Distantly Supervised Named Entity
Recognition [39.264878763160766]
本稿では, 正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正
提案手法は,4つの遠隔教師付きNERデータセットに対して一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2023-05-22T15:35:39Z) - Bayesian Self-Supervised Contrastive Learning [16.903874675729952]
本稿では,BCL損失と呼ばれる新たな自己監督型コントラスト損失を提案する。
鍵となる考え方は、ベイズフレームワークの下で真の正のサンプルをサンプリングするために望ましいサンプリング分布を設計することである。
実験はBCL損失の有効性と優越性を検証した。
論文 参考訳(メタデータ) (2023-01-27T12:13:06Z) - Learning with Noisy Labels over Imbalanced Subpopulations [13.477553187049462]
ノイズラベル(LNL)による学習は,研究コミュニティから大きな注目を集めている。
ノイズラベルと不均衡なサブポピュレーションを同時に扱う新しいLNL法を提案する。
試料のクリーンな確率を推定するために, 試料相関を考慮に入れた特徴量測定手法を提案する。
論文 参考訳(メタデータ) (2022-11-16T07:25:24Z) - Generating Negative Samples for Sequential Recommendation [83.60655196391855]
逐次レコメンデーション(SR)のための負のサンプル(イテム)を生成することを提案する。
アイテムに対する現在のSRモデルの学習されたユーザの好みに基づいて、各タイムステップで負の項目をサンプリングする。
4つの公開データセットの実験は、SRに高品質な負のサンプルを提供することの重要性を検証する。
論文 参考訳(メタデータ) (2022-08-07T05:44:13Z) - FedCL: Federated Contrastive Learning for Privacy-Preserving
Recommendation [98.5705258907774]
FedCLは、プライバシーを十分に保護した効果的なモデルトレーニングのために、高品質な負のサンプルを利用することができる。
まず、各クライアントのローカルモデルを介してローカルユーザデータからユーザ埋め込みを推測し、その後、ローカルディファレンシャルプライバシ(LDP)で摂動する。
個々のユーザ埋め込みにはLDPによる重騒音が伴うため,ノイズの影響を軽減するため,サーバ上にユーザ埋め込みをクラスタ化することを提案する。
論文 参考訳(メタデータ) (2022-04-21T02:37:10Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Probabilistic and Variational Recommendation Denoising [56.879165033014026]
暗黙のフィードバックから学ぶことは、推奨システムの適用において最も一般的なケースの1つである。
本稿では,暗黙のフィードバックに対する確率的・変動的推薦を提案する。
提案したDPIとDVAEを4つの最先端レコメンデーションモデルに適用し、3つのデータセットで実験を行う。
論文 参考訳(メタデータ) (2021-05-20T08:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。