論文の概要: Contextual Distillation Model for Diversified Recommendation
- arxiv url: http://arxiv.org/abs/2406.09021v2
- Date: Wed, 14 Aug 2024 04:52:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 22:08:53.225577
- Title: Contextual Distillation Model for Diversified Recommendation
- Title(参考訳): 多様な勧告のための文脈蒸留モデル
- Authors: Fan Li, Xu Si, Shisong Tang, Dingmin Wang, Kunyan Han, Bing Han, Guorui Zhou, Yang Song, Hechang Chen,
- Abstract要約: 文脈蒸留モデル(CDM)は、多様化に対処する効率的なレコメンデーションモデルである。
本稿では,肯定的コンテキストと否定的コンテキストの両方をモデル化するための注意機構を用いたコントラスト型コンテキストエンコーダを提案する。
推論中は、推薦と学生モデルスコアを線形に組み合わせてランキングを行う。
- 参考スコア(独自算出の注目度): 19.136439564988834
- License:
- Abstract: The diversity of recommendation is equally crucial as accuracy in improving user experience. Existing studies, e.g., Determinantal Point Process (DPP) and Maximal Marginal Relevance (MMR), employ a greedy paradigm to iteratively select items that optimize both accuracy and diversity. However, prior methods typically exhibit quadratic complexity, limiting their applications to the re-ranking stage and are not applicable to other recommendation stages with a larger pool of candidate items, such as the pre-ranking and ranking stages. In this paper, we propose Contextual Distillation Model (CDM), an efficient recommendation model that addresses diversification, suitable for the deployment in all stages of industrial recommendation pipelines. Specifically, CDM utilizes the candidate items in the same user request as context to enhance the diversification of the results. We propose a contrastive context encoder that employs attention mechanisms to model both positive and negative contexts. For the training of CDM, we compare each target item with its context embedding and utilize the knowledge distillation framework to learn the win probability of each target item under the MMR algorithm, where the teacher is derived from MMR outputs. During inference, ranking is performed through a linear combination of the recommendation and student model scores, ensuring both diversity and efficiency. We perform offline evaluations on two industrial datasets and conduct online A/B test of CDM on the short-video platform KuaiShou. The considerable enhancements observed in both recommendation quality and diversity, as shown by metrics, provide strong superiority for the effectiveness of CDM.
- Abstract(参考訳): 推薦の多様性は、ユーザエクスペリエンスを改善するための正確さと同じくらい重要です。
既存の研究、例えば、DPP(Determinantal Point Process)やMMR(Maximal Marginal Relevance)は、正確性と多様性の両方を最適化する項目を反復的に選択するために、欲張りのパラダイムを採用している。
しかし、従来の手法は一般に二次的な複雑さを示し、適用範囲を再ランクステージに制限し、事前ランクやランキングステージのような候補項目のプールを大きくした他のレコメンデーションステージには適用できない。
本稿では,産業用レコメンデーションパイプラインのすべての段階における展開に適した,多角化に対応する効率的なレコメンデーションモデルであるコンテキスト蒸留モデル(CDM)を提案する。
具体的には、CDMは、同じユーザ要求の候補項目をコンテキストとして利用し、結果の多様化を強化する。
本稿では,肯定的コンテキストと否定的コンテキストの両方をモデル化するための注意機構を用いたコントラスト型コンテキストエンコーダを提案する。
CDMのトレーニングでは,各対象項目をそのコンテキスト埋め込みと比較し,知識蒸留フレームワークを用いて,教師がMMR出力から派生したMMRアルゴリズムを用いて,各対象項目の勝利確率を学習する。
推論中は、推薦と学生モデルのスコアを線形に組み合わせてランキングが行われ、多様性と効率の両立が保証される。
2つの産業データセットをオフラインで評価し、短いビデオプラットフォームKuaiShou上でCDMのオンラインA/Bテストを実施します。
推奨品質と多様性の両方で観察される大幅な改善は、メトリクスによって示されるように、CDMの有効性に強力な優位性をもたらす。
関連論文リスト
- Learning k-Determinantal Point Processes for Personalized Ranking [13.677246792673564]
パーソナライズされたランキングのセット確率比較に基づく新しい最適化基準LkPを提案する。
LkPは広く適用でき、既存のレコメンデーションモデルに適用すると、パフォーマンスも大幅に向上する。
論文 参考訳(メタデータ) (2024-06-23T02:24:50Z) - Are We Really Achieving Better Beyond-Accuracy Performance in Next Basket Recommendation? [57.91114305844153]
次のバスケットレコメンデーション(NBR)は、ますます注目を集めている特別なタイプのシーケンシャルレコメンデーションである。
NBRに関する最近の研究は、繰り返し項目を推奨することと項目を探索することの間に大きなパフォーマンス差が見つかった。
本稿では,繰り返しアイテムを扱い,個別にアイテムを探索する2段階反復探索フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-02T09:59:35Z) - Curriculum-scheduled Knowledge Distillation from Multiple Pre-trained Teachers for Multi-domain Sequential Recommendation [102.91236882045021]
現実世界のシステムにおいて、様々な事前学習されたレコメンデーションモデルを効率的に利用する方法について検討することが不可欠である。
多分野連続的な推薦のために,複数の事前学習教師によるカリキュラムスケジューリング型知識蒸留を提案する。
CKD-MDSRは、複数の教師モデルとして異なるPRMの利点を最大限に活用し、小学生推薦モデルを強化している。
論文 参考訳(メタデータ) (2024-01-01T15:57:15Z) - Diversely Regularized Matrix Factorization for Accurate and Aggregately
Diversified Recommendation [15.483426620593013]
DivMF(Diversely Regularized Matrix Factorization)は、多彩な推薦のための新しい行列分解法である。
我々は,DivMFが総合的に多様化した推薦において最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2022-10-19T08:49:39Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - Choosing the Best of Both Worlds: Diverse and Novel Recommendations
through Multi-Objective Reinforcement Learning [68.45370492516531]
本稿では,Recommender Systems (RS) 設定のための拡張多目的強化学習(SMORL)を紹介する。
SMORLエージェントは、標準レコメンデーションモデルを拡張し、RLレイヤーを追加し、3つの主要な目的(正確性、多様性、新しいレコメンデーション)を同時に満たすように強制する。
実世界の2つのデータセットに対する実験結果から,集約的多様性の顕著な増加,精度の適度な向上,レコメンデーションの反復性の低下,および相補的目的としての多様性と新規性の強化の重要性が示された。
論文 参考訳(メタデータ) (2021-10-28T13:22:45Z) - Distiller: A Systematic Study of Model Distillation Methods in Natural
Language Processing [21.215122347801696]
我々は、KDパイプラインの異なるコンポーネントが結果のパフォーマンスにどのように影響するかを特定することを目指している。
我々は,KDパイプラインのさまざまな段階にわたる幅広いテクニックを組み合わせた,メタKDフレームワークであるDistillerを提案する。
異なるデータセット/タスクは異なるKDアルゴリズムを好んでおり、単純なAutoDistillerアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-23T02:12:28Z) - Reenvisioning Collaborative Filtering vs Matrix Factorization [65.74881520196762]
近年,行列因数分解に基づく協調フィルタリングモデルや,ニューラルネットワーク(ANN)を用いた類似性の学習が注目されている。
推薦エコシステム内でのANNの発表が最近疑問視され、効率性と有効性に関していくつかの比較がなされている。
本研究では,これらの手法が相補的評価次元に与える影響を解析しながら,超精度評価にもたらす可能性を示す。
論文 参考訳(メタデータ) (2021-07-28T16:29:38Z) - Sample-Rank: Weak Multi-Objective Recommendations Using Rejection
Sampling [0.5156484100374059]
本稿では,マルチゴールサンプリングとユーザ関連度(Sample-Rank)のランク付けによるマーケットプレースの多目的目標への推薦手法を提案する。
提案手法の新規性は,望まれるマルチゴール分布からサンプリングするMOレコメンデーション問題を低減し,プロダクションフレンドリーな学習-ランクモデルを構築することである。
論文 参考訳(メタデータ) (2020-08-24T09:17:18Z) - Sequential Recommendation with Self-Attentive Multi-Adversarial Network [101.25533520688654]
逐次レコメンデーションにおける文脈情報の影響を明示的にモデル化するためのMFGAN(Multi-Factor Generative Adversarial Network)を提案する。
当社のフレームワークは,複数種類の因子情報を組み込むことが柔軟であり,各因子が推奨決定にどのように貢献するかを時間とともに追跡することができる。
論文 参考訳(メタデータ) (2020-05-21T12:28:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。