論文の概要: Personalized Negative Reservoir for Incremental Learning in Recommender Systems
- arxiv url: http://arxiv.org/abs/2403.03993v2
- Date: Tue, 11 Feb 2025 21:10:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:46:25.461407
- Title: Personalized Negative Reservoir for Incremental Learning in Recommender Systems
- Title(参考訳): リコメンダシステムにおけるインクリメンタルラーニングのためのPersonalized Negative Reservoir
- Authors: Antonios Valkanas, Yuening Wang, Yingxue Zhang, Mark Coates,
- Abstract要約: 商用環境では、一度レコメンデーションシステムモデルがトレーニングされ、デプロイされると、新しいクライアントデータが到着すると頻繁に更新する必要があります。
新しいデータのみを微調整することは、破滅的な忘れ方という、よく文書化された問題に陥る。
本稿では,グラフベースのレコメンデーションシステムにおいて,標準的なトリプルト損失に対する負のサンプルを得るために,パーソナライズされた負の貯水池戦略を提案する。
- 参考スコア(独自算出の注目度): 20.346543608461204
- License:
- Abstract: Recommender systems have become an integral part of online platforms. Every day the volume of training data is expanding and the number of user interactions is constantly increasing. The exploration of larger and more expressive models has become a necessary pursuit to improve user experience. However, this progression carries with it an increased computational burden. In commercial settings, once a recommendation system model has been trained and deployed it typically needs to be updated frequently as new client data arrive. Cumulatively, the mounting volume of data is guaranteed to eventually make full batch retraining of the model from scratch computationally infeasible. Naively fine-tuning solely on the new data runs into the well-documented problem of catastrophic forgetting. Despite the fact that negative sampling is a crucial part of training with implicit feedback, no specialized technique exists that is tailored to the incremental learning framework. In this work, we propose a personalized negative reservoir strategy, which is used to obtain negative samples for the standard triplet loss of graph-based recommendation systems. Our technique balances alleviation of forgetting with plasticity by encouraging the model to remember stable user preferences and selectively forget when user interests change. We derive the mathematical formulation of a negative sampler to populate and update the reservoir. We integrate our design in three SOTA and commonly used incremental recommendation models. We show that these concrete realizations of our negative reservoir framework achieve state-of-the-art results for standard benchmarks using multiple top-k evaluation metrics.
- Abstract(参考訳): レコメンダシステムはオンラインプラットフォームにおいて不可欠な部分となっている。
トレーニングデータの量は毎日増加しており、ユーザインタラクションの数は常に増加しています。
より大きな、より表現力のあるモデルの探索は、ユーザーエクスペリエンスを改善するために必要となる。
しかし、この進歩は計算負荷を増大させる。
商用環境では、一度レコメンデーションシステムモデルがトレーニングされ、デプロイされると、通常、新しいクライアントデータが到着すると頻繁に更新する必要があります。
累積的に、データの搭載量は、最終的にスクラッチからモデルの完全なバッチ再トレーニングを計算不能にすることを保証する。
新しいデータのみを微調整することは、破滅的な忘れ方という、よく文書化された問題に陥る。
負のサンプリングが暗黙のフィードバックを持つトレーニングの重要な部分であるにもかかわらず、漸進的な学習フレームワークに合わせた特別なテクニックは存在しない。
本研究では,グラフベースのレコメンデーションシステムにおいて,標準的な3重項損失に対する負のサンプルを得るために,パーソナライズされた負の貯水池戦略を提案する。
本手法は, ユーザの嗜好を安定的に記憶し, ユーザの興味がいつ変化するかを選択的に忘れることをモデルに促すことにより, 可塑性による忘れの軽減のバランスをとる。
我々は, 正のサンプルの数学的定式化を導出し, 貯水池を個体群化し, 更新する。
私たちは設計を3つのSOTAに統合し、一般的にインクリメンタルレコメンデーションモデルを使用します。
複数のトップk評価指標を用いて,これらの負の貯水池フレームワークの具体的実現により,標準ベンチマークの最先端結果が得られることを示す。
関連論文リスト
- Self-Taught Evaluators [77.92610887220594]
本稿では,人工的なトレーニングデータのみを用いて,人間のアノテーションを使わずに即興で証明することを目的としたアプローチを提案する。
我々の自己学習評価器は、RewardBench上で75.4から88.3までの強いLDMを改善することができる。
論文 参考訳(メタデータ) (2024-08-05T17:57:02Z) - Netflix and Forget: Efficient and Exact Machine Unlearning from
Bi-linear Recommendations [15.789980605221672]
本稿では,行列補完に基づくリコメンデーションのための単純だが広範囲に展開されたバイ線形モデルに焦点を当てる。
本研究は,Alternating Least Squaresの下での微調整手順にいくつかの重要な変更を加えることにより,Unlearn-ALSを開発した。
実験の結果,Unlearn-ALSは幻想的モデル劣化を伴わない再訓練と整合性を示し,急速な収束を示した。
論文 参考訳(メタデータ) (2023-02-13T20:27:45Z) - Personalizing Intervened Network for Long-tailed Sequential User
Behavior Modeling [66.02953670238647]
タイルユーザーは、共同トレーニング後のヘッドユーザーよりも大幅に品質の低いレコメンデーションに悩まされる。
テールユーザーで個別に訓練されたモデルは、限られたデータのために依然として劣った結果が得られる。
本稿では,テールユーザの推薦性能を大幅に向上させる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-19T02:50:19Z) - Generating Negative Samples for Sequential Recommendation [83.60655196391855]
逐次レコメンデーション(SR)のための負のサンプル(イテム)を生成することを提案する。
アイテムに対する現在のSRモデルの学習されたユーザの好みに基づいて、各タイムステップで負の項目をサンプリングする。
4つの公開データセットの実験は、SRに高品質な負のサンプルを提供することの重要性を検証する。
論文 参考訳(メタデータ) (2022-08-07T05:44:13Z) - Effective and Efficient Training for Sequential Recommendation using
Recency Sampling [91.02268704681124]
本稿では,新しいRecency-based Smpling of Sequencesトレーニング目標を提案する。
提案手法により拡張されたモデルにより,最先端のBERT4Recに近い性能が得られることを示す。
論文 参考訳(メタデータ) (2022-07-06T13:06:31Z) - WSLRec: Weakly Supervised Learning for Neural Sequential Recommendation
Models [24.455665093145818]
我々は、WSLRecと呼ばれる新しいモデルに依存しないトレーニング手法を提案し、3段階のフレームワーク(事前学習、トップ$k$マイニング、本質的、微調整)を採用する。
WSLRec は、BR や ItemCF のようなモデルフリーメソッドから、余分な弱い監督のモデルを事前訓練することで、不完全性の問題を解決すると同時に、最上位の$k のマイニングを活用して、微調整のための弱い監督の信頼性の高いユーザ・イテム関連を検査することで、不正確な問題を解消する。
論文 参考訳(メタデータ) (2022-02-28T08:55:12Z) - Top-N Recommendation with Counterfactual User Preference Simulation [26.597102553608348]
ユーザーランキングに基づく好みの学習を目的としたTop-Nレコメンデーションは、長い間、広範囲のアプリケーションにおいて基本的な問題だった。
本稿では,データ不足問題に対処するため,因果推論フレームワーク内での推薦タスクの再構築を提案する。
論文 参考訳(メタデータ) (2021-09-02T14:28:46Z) - Incremental Learning for Personalized Recommender Systems [8.020546404087922]
トレーニング効率とモデル品質の両方を提供するために,インクリメンタルな学習ソリューションを提案する。
このソリューションはLinkedInにデプロイされ、産業規模のレコメンデーションシステムに直接適用される。
論文 参考訳(メタデータ) (2021-08-13T04:21:21Z) - PURS: Personalized Unexpected Recommender System for Improving User
Satisfaction [76.98616102965023]
本稿では、予期せぬことを推奨プロセスに組み込んだ、新しいPersonalized Unexpected Recommender System(PURS)モデルについて述べる。
3つの実世界のデータセットに対する大規模なオフライン実験は、提案されたPURSモデルが最先端のベースラインアプローチを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2021-06-05T01:33:21Z) - ADER: Adaptively Distilled Exemplar Replay Towards Continual Learning
for Session-based Recommendation [28.22402119581332]
セッションベースのレコメンデーションは最近、プライバシーの懸念が高まり、注目を集めている。
本稿では,従来のトレーニングサンプルを定期的に再生することで,ADER(Adaptively Distilled Exemplar Replay)と呼ばれる手法を提案する。
ADERは他のベースラインを一貫して上回り、更新サイクル毎にすべての履歴データを使用してメソッドを上回ります。
論文 参考訳(メタデータ) (2020-07-23T13:19:53Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。