論文の概要: Personalized Denoising Implicit Feedback for Robust Recommender System
- arxiv url: http://arxiv.org/abs/2502.00348v1
- Date: Sat, 01 Feb 2025 07:13:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:52:08.574212
- Title: Personalized Denoising Implicit Feedback for Robust Recommender System
- Title(参考訳): ロバストレコメンダシステムのためのパーソナライズされた暗黙のフィードバック
- Authors: Kaike Zhang, Qi Cao, Yunfan Wu, Fei Sun, Huawei Shen, Xueqi Cheng,
- Abstract要約: ユーザの個人的損失分布には,正常なインタラクションとノイズの多いインタラクションが明確に区別されていることを示す。
本稿では,ユーザのパーソナライズロス分布であるPLDを用いてDenoiseに対する再サンプリング戦略を提案する。
- 参考スコア(独自算出の注目度): 60.719158008403376
- License:
- Abstract: While implicit feedback is foundational to modern recommender systems, factors such as human error, uncertainty, and ambiguity in user behavior inevitably introduce significant noise into this feedback, adversely affecting the accuracy and robustness of recommendations. To address this issue, existing methods typically aim to reduce the training weight of noisy feedback or discard it entirely, based on the observation that noisy interactions often exhibit higher losses in the overall loss distribution. However, we identify two key issues: (1) there is a significant overlap between normal and noisy interactions in the overall loss distribution, and (2) this overlap becomes even more pronounced when transitioning from pointwise loss functions (e.g., BCE loss) to pairwise loss functions (e.g., BPR loss). This overlap leads traditional methods to misclassify noisy interactions as normal, and vice versa. To tackle these challenges, we further investigate the loss overlap and find that for a given user, there is a clear distinction between normal and noisy interactions in the user's personal loss distribution. Based on this insight, we propose a resampling strategy to Denoise using the user's Personal Loss distribution, named PLD, which reduces the probability of noisy interactions being optimized. Specifically, during each optimization iteration, we create a candidate item pool for each user and resample the items from this pool based on the user's personal loss distribution, prioritizing normal interactions. Additionally, we conduct a theoretical analysis to validate PLD's effectiveness and suggest ways to further enhance its performance. Extensive experiments conducted on three datasets with varying noise ratios demonstrate PLD's efficacy and robustness.
- Abstract(参考訳): 現代のレコメンデーションシステムには暗黙のフィードバックが基礎となっているが、ヒューマンエラー、不確実性、ユーザ行動の曖昧さなどの要因がこのフィードバックに必然的に大きなノイズをもたらし、レコメンデーションの正確性や堅牢性に悪影響を及ぼす。
この問題を解決するために、既存の手法は一般的に、ノイズフィードバックのトレーニング重量を減らしたり、完全に破棄することを目的としている。
しかし,(1)損失分布全体において通常の相互作用とノイズの相互作用の間に大きな重なりがあること,(2)ポイントワイド損失関数(例えば,BCE損失)からペアワイド損失関数(例えば,BPR損失)に移行すると,この重なり合いがさらに顕著になる,という2つの重要な課題が明らかになった。
この重なり合いは、ノイズの相互作用を通常のものと誤分類する従来の方法と、その逆を導く。
これらの課題に対処するために、損失重なりを更に調査し、あるユーザにとって、ユーザの個人的損失分布における正常な相互作用とノイズの多い相互作用が明確に区別されていることを確認する。
この知見に基づいて,ユーザのパーソナライズロス分布であるPLDを用いて,雑音の相互作用が最適化される確率を低減することで,Denoiseに対する再サンプリング戦略を提案する。
具体的には、各最適化イテレーションにおいて、各ユーザに対して候補アイテムプールを作成し、正常なインタラクションを優先して、ユーザの個人的損失分布に基づいて、このプールからアイテムを再サンプリングする。
さらに,PLDの有効性を検証するための理論的解析を行い,その性能をさらに向上する方法を提案する。
様々なノイズ比を持つ3つのデータセットで実施された大規模な実験は、PLDの有効性と堅牢性を示している。
関連論文リスト
- Collaborative Diffusion Model for Recommender System [52.56609747408617]
Recommender System (CDiff4Rec) のための協調拡散モデルを提案する。
CDiff4Recはアイテム機能から擬似ユーザを生成し、本物と偽の個人的隣人の両方から協調的な信号を利用する。
3つの公開データセットによる実験結果から、CDiff4Recは、パーソナライズされた情報の損失を効果的に軽減することで、競合より優れていることが示された。
論文 参考訳(メタデータ) (2025-01-31T10:05:01Z) - DeBaTeR: Denoising Bipartite Temporal Graph for Recommendation [38.87538556340487]
タイムアウェアなユーザ/イテムの埋め込みを生成するための,シンプルかつ効果的な機構を提案する。
提案手法は,2部分節時間グラフをレコメンデータシステムで記述する2つの方法である。
論文 参考訳(メタデータ) (2024-11-14T04:39:30Z) - Large Language Model Enhanced Hard Sample Identification for Denoising Recommendation [4.297249011611168]
暗黙のフィードバックは、しばしばレコメンデーションシステムを構築するために使われる。
従来の研究では、分散したパターンに基づいてノイズの多いサンプルを識別することで、これを緩和しようと試みてきた。
大規模言語モデル強化型ハードサンプルデノゲーションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-16T14:57:09Z) - A Huber Loss Minimization Approach to Mean Estimation under User-level Differential Privacy [32.38935276997549]
分散システムでは,サンプル全体のプライバシ保護が重要である。
ユーザレベルの差分プライバシに基づく推定におけるハマー損失最小化手法を提案する。
提案手法の理論的解析により,プライバシー保護に必要な雑音強度と平均二乗誤差の有界性が得られる。
論文 参考訳(メタデータ) (2024-05-22T08:46:45Z) - Double Correction Framework for Denoising Recommendation [45.98207284259792]
暗黙のフィードバックでは、ノイズの多いサンプルが正確なユーザの好みの学習に影響を与える可能性がある。
一般的なソリューションは、モデルトレーニングフェーズでノイズの多いサンプルをドロップすることに基づいている。
提案手法では,勧告を記述するための二重補正フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-18T12:15:10Z) - ROPO: Robust Preference Optimization for Large Language Models [59.10763211091664]
外部モデルの助けを借りずにノイズ耐性とノイズサンプルのフィルタリングを統合する反復アライメント手法を提案する。
Mistral-7BとLlama-2-7Bで広く使われている3つのデータセットの実験では、ROPOが既存の嗜好アライメント法を大幅に上回っていることが示されている。
論文 参考訳(メタデータ) (2024-04-05T13:58:51Z) - Optimizing the Noise in Self-Supervised Learning: from Importance
Sampling to Noise-Contrastive Estimation [80.07065346699005]
GAN(Generative Adversarial Networks)のように、最適な雑音分布はデータ分布に等しくなると広く想定されている。
我々は、この自己教師型タスクをエネルギーベースモデルの推定問題として基礎づけるノイズ・コントラスト推定に目を向ける。
本研究は, 最適雑音のサンプリングは困難であり, 効率性の向上は, データに匹敵する雑音分布を選択することに比べ, 緩やかに行うことができると結論付けた。
論文 参考訳(メタデータ) (2023-01-23T19:57:58Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Partial Identification with Noisy Covariates: A Robust Optimization
Approach [94.10051154390237]
観測データセットからの因果推論は、しばしば共変量の測定と調整に依存する。
このロバストな最適化手法により、広範囲な因果調整法を拡張し、部分的同定を行うことができることを示す。
合成および実データセット全体で、このアプローチは既存の手法よりも高いカバレッジ確率でATEバウンダリを提供する。
論文 参考訳(メタデータ) (2022-02-22T04:24:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。