論文の概要: Learning Robust Recommender from Noisy Implicit Feedback
- arxiv url: http://arxiv.org/abs/2112.01160v1
- Date: Thu, 2 Dec 2021 12:12:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 16:52:33.958945
- Title: Learning Robust Recommender from Noisy Implicit Feedback
- Title(参考訳): 暗黙のフィードバックから学習するロバストな推薦者
- Authors: Wenjie Wang, Fuli Feng, Xiangnan He, Liqiang Nie, Tat-Seng Chua
- Abstract要約: 我々はAdaptive Denoising Training(ADT)という新しいトレーニング戦略を提案する。
ADTは2つのパラダイム(Trncated LossとReweighted Loss)によるノイズ相互作用を適応的に引き起こす
我々は、追加のフィードバック(例えば、評価)を補助信号とみなし、追加のフィードバックをADTに組み込むための3つの戦略を提案する。
- 参考スコア(独自算出の注目度): 140.7090392887355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ubiquity of implicit feedback makes it indispensable for building
recommender systems. However, it does not actually reflect the actual
satisfaction of users. For example, in E-commerce, a large portion of clicks do
not translate to purchases, and many purchases end up with negative reviews. As
such, it is of importance to account for the inevitable noises in implicit
feedback. However, little work on recommendation has taken the noisy nature of
implicit feedback into consideration. In this work, we explore the central
theme of denoising implicit feedback for recommender learning, including
training and inference. By observing the process of normal recommender
training, we find that noisy feedback typically has large loss values in the
early stages. Inspired by this observation, we propose a new training strategy
named Adaptive Denoising Training (ADT), which adaptively prunes the noisy
interactions by two paradigms (i.e., Truncated Loss and Reweighted Loss).
Furthermore, we consider extra feedback (e.g., rating) as auxiliary signal and
propose three strategies to incorporate extra feedback into ADT: finetuning,
warm-up training, and colliding inference. We instantiate the two paradigms on
the widely used binary cross-entropy loss and test them on three representative
recommender models. Extensive experiments on three benchmarks demonstrate that
ADT significantly improves the quality of recommendation over normal training
without using extra feedback. Besides, the proposed three strategies for using
extra feedback largely enhance the denoising ability of ADT.
- Abstract(参考訳): 暗黙的なフィードバックの普遍性は、レコメンダシステムの構築に不可欠である。
しかし、実際にはユーザーの満足度を反映していない。
例えば、eコマースでは、クリックの大部分は購入に翻訳されず、多くの購入は否定的なレビューになる。
そのため、暗黙のフィードバックにおいて避けられないノイズを考慮することが重要である。
しかしながら、暗黙的なフィードバックの騒がしい性質を考慮して、推奨に関する作業はほとんど行われていない。
本研究では,暗黙的なフィードバックを指導や推論を含む推薦学習に用いた中心的テーマについて検討する。
通常のレコメンデータートレーニングの過程を観察した結果,ノイズフィードバックは一般的に早期に大きな損失値を持つことがわかった。
そこで本研究では,2つのパラダイム(Trncated LossとReweighted Loss)によるノイズ相互作用を適応的に引き起こすAdaptive Denoising Training(ADT)という新たなトレーニング戦略を提案する。
さらに,追加フィードバック(レーティングなど)を補助信号として,微調整,ウォームアップトレーニング,衝突推論の3つの手法を提案する。
広く使われている2進クロスエントロピー損失の2つのパラダイムをインスタンス化し、3つの代表的な推奨モデルで検証する。
3つのベンチマークによる大規模な実験により、ADTは追加のフィードバックを使わずに、通常のトレーニングよりも推奨品質を大幅に改善することが示された。
さらに、追加フィードバックを使用するための3つの戦略は、ADTの認知能力を大幅に向上させる。
関連論文リスト
- CANDERE-COACH: Reinforcement Learning from Noisy Feedback [12.232688822099325]
CANDERE-COACHアルゴリズムは、非最適教師によるノイズフィードバックから学習することができる。
本稿では,教師のフィードバックの最大40%が誤りであった場合,RLエージェントが学習を成功させるためのノイズフィルタリング機構を提案する。
論文 参考訳(メタデータ) (2024-09-23T20:14:12Z) - Dual Test-time Training for Out-of-distribution Recommender System [91.15209066874694]
DT3ORと呼ばれるOODレコメンデーションのための新しいDual Test-Time-Trainingフレームワークを提案する。
DT3ORでは、テスト期間中にモデル適応機構を導入し、リコメンデーションモデルを慎重に更新する。
我々の知る限りでは、テストタイムトレーニング戦略を通じてOODレコメンデーションに対処する最初の研究である。
論文 参考訳(メタデータ) (2024-07-22T13:27:51Z) - Stability of Explainable Recommendation [10.186029242664931]
既存の特徴指向の説明可能なレコメンデーションの脆弱性について検討する。
我々は、全ての説明可能なモデルが騒音レベルの増加に弱いことを観察する。
本研究は,レコメンデーションシステムにおけるロバストな説明の話題について,実証的な検証を行った。
論文 参考訳(メタデータ) (2024-05-03T04:44:51Z) - Constructive Large Language Models Alignment with Diverse Feedback [76.9578950893839]
本稿では,大規模言語モデルのアライメント向上のための新しい手法として,コンストラクティブ・ディバース・フィードバック(CDF)を導入する。
我々は,簡単な問題に対する批判的フィードバック,中級問題に対する改善的フィードバック,難題に対する選好的フィードバックを利用する。
このような多様なフィードバックでモデルをトレーニングすることで、トレーニングデータの少ない使用でアライメント性能を向上させることができる。
論文 参考訳(メタデータ) (2023-10-10T09:20:14Z) - Adapting Triplet Importance of Implicit Feedback for Personalized
Recommendation [43.85549591503592]
インプシットフィードバックは、パーソナライズされたレコメンデーションサービスを開発するために頻繁に使用される。
本稿では,Triplet Importance Learning (TIL) という新たなトレーニングフレームワークを提案する。
提案手法は,トップkレコメンデーションのRecall@kにおいて,既存モデルよりも3~21%優れていた。
論文 参考訳(メタデータ) (2022-08-02T19:44:47Z) - Breaking Feedback Loops in Recommender Systems with Causal Inference [99.22185950608838]
近年の研究では、フィードバックループが推奨品質を損なう可能性があり、ユーザの振る舞いを均質化している。
本稿では、因果推論を用いてフィードバックループを確実に破壊するアルゴリズムCAFLを提案する。
従来の補正手法と比較して,CAFLは推奨品質を向上することを示す。
論文 参考訳(メタデータ) (2022-07-04T17:58:39Z) - Probabilistic and Variational Recommendation Denoising [56.879165033014026]
暗黙のフィードバックから学ぶことは、推奨システムの適用において最も一般的なケースの1つである。
本稿では,暗黙のフィードバックに対する確率的・変動的推薦を提案する。
提案したDPIとDVAEを4つの最先端レコメンデーションモデルに適用し、3つのデータセットで実験を行う。
論文 参考訳(メタデータ) (2021-05-20T08:59:44Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。