論文の概要: Contextual Distillation Model for Diversified Recommendation
- arxiv url: http://arxiv.org/abs/2406.09021v2
- Date: Wed, 14 Aug 2024 04:52:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 22:08:53.225577
- Title: Contextual Distillation Model for Diversified Recommendation
- Title(参考訳): 多様な勧告のための文脈蒸留モデル
- Authors: Fan Li, Xu Si, Shisong Tang, Dingmin Wang, Kunyan Han, Bing Han, Guorui Zhou, Yang Song, Hechang Chen,
- Abstract要約: 文脈蒸留モデル(CDM)は、多様化に対処する効率的なレコメンデーションモデルである。
本稿では,肯定的コンテキストと否定的コンテキストの両方をモデル化するための注意機構を用いたコントラスト型コンテキストエンコーダを提案する。
推論中は、推薦と学生モデルスコアを線形に組み合わせてランキングを行う。
- 参考スコア(独自算出の注目度): 19.136439564988834
- License:
- Abstract: The diversity of recommendation is equally crucial as accuracy in improving user experience. Existing studies, e.g., Determinantal Point Process (DPP) and Maximal Marginal Relevance (MMR), employ a greedy paradigm to iteratively select items that optimize both accuracy and diversity. However, prior methods typically exhibit quadratic complexity, limiting their applications to the re-ranking stage and are not applicable to other recommendation stages with a larger pool of candidate items, such as the pre-ranking and ranking stages. In this paper, we propose Contextual Distillation Model (CDM), an efficient recommendation model that addresses diversification, suitable for the deployment in all stages of industrial recommendation pipelines. Specifically, CDM utilizes the candidate items in the same user request as context to enhance the diversification of the results. We propose a contrastive context encoder that employs attention mechanisms to model both positive and negative contexts. For the training of CDM, we compare each target item with its context embedding and utilize the knowledge distillation framework to learn the win probability of each target item under the MMR algorithm, where the teacher is derived from MMR outputs. During inference, ranking is performed through a linear combination of the recommendation and student model scores, ensuring both diversity and efficiency. We perform offline evaluations on two industrial datasets and conduct online A/B test of CDM on the short-video platform KuaiShou. The considerable enhancements observed in both recommendation quality and diversity, as shown by metrics, provide strong superiority for the effectiveness of CDM.
- Abstract(参考訳): 推薦の多様性は、ユーザエクスペリエンスを改善するための正確さと同じくらい重要です。
既存の研究、例えば、DPP(Determinantal Point Process)やMMR(Maximal Marginal Relevance)は、正確性と多様性の両方を最適化する項目を反復的に選択するために、欲張りのパラダイムを採用している。
しかし、従来の手法は一般に二次的な複雑さを示し、適用範囲を再ランクステージに制限し、事前ランクやランキングステージのような候補項目のプールを大きくした他のレコメンデーションステージには適用できない。
本稿では,産業用レコメンデーションパイプラインのすべての段階における展開に適した,多角化に対応する効率的なレコメンデーションモデルであるコンテキスト蒸留モデル(CDM)を提案する。
具体的には、CDMは、同じユーザ要求の候補項目をコンテキストとして利用し、結果の多様化を強化する。
本稿では,肯定的コンテキストと否定的コンテキストの両方をモデル化するための注意機構を用いたコントラスト型コンテキストエンコーダを提案する。
CDMのトレーニングでは,各対象項目をそのコンテキスト埋め込みと比較し,知識蒸留フレームワークを用いて,教師がMMR出力から派生したMMRアルゴリズムを用いて,各対象項目の勝利確率を学習する。
推論中は、推薦と学生モデルのスコアを線形に組み合わせてランキングが行われ、多様性と効率の両立が保証される。
2つの産業データセットをオフラインで評価し、短いビデオプラットフォームKuaiShou上でCDMのオンラインA/Bテストを実施します。
推奨品質と多様性の両方で観察される大幅な改善は、メトリクスによって示されるように、CDMの有効性に強力な優位性をもたらす。
関連論文リスト
- Bridging and Modeling Correlations in Pairwise Data for Direct Preference Optimization [75.1240295759264]
本稿では,BMC という名前のペアデータにおけるブリッジ・アンド・モデリングの効果的なフレームワークを提案する。
目的の修正によって、ペアの選好信号の一貫性と情報性が向上する。
DPOだけではこれらの相関をモデル化し、ニュアンス付き変動を捉えるには不十分である。
論文 参考訳(メタデータ) (2024-08-14T11:29:47Z) - A Preference-oriented Diversity Model Based on Mutual-information in Re-ranking for E-commerce Search [11.49911967350851]
本稿では,相互情報(PODM-MI)に基づく嗜好指向の多様性モデルを提案する。
PODM-MIは、再ランクプロセスにおける正確性と多様性の両方を考慮する。
我々は,PODM-MIをeコマース検索プラットフォームに導入することに成功している。
論文 参考訳(メタデータ) (2024-05-24T13:03:34Z) - Diversely Regularized Matrix Factorization for Accurate and Aggregately
Diversified Recommendation [15.483426620593013]
DivMF(Diversely Regularized Matrix Factorization)は、多彩な推薦のための新しい行列分解法である。
我々は,DivMFが総合的に多様化した推薦において最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2022-10-19T08:49:39Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - When AUC meets DRO: Optimizing Partial AUC for Deep Learning with
Non-Convex Convergence Guarantee [51.527543027813344]
単方向および二方向部分AUC(pAUC)の系統的および効率的な勾配法を提案する。
一方通行と一方通行の pAUC に対して,2つのアルゴリズムを提案し,それぞれ2つの定式化を最適化するための収束性を証明した。
論文 参考訳(メタデータ) (2022-03-01T01:59:53Z) - Choosing the Best of Both Worlds: Diverse and Novel Recommendations
through Multi-Objective Reinforcement Learning [68.45370492516531]
本稿では,Recommender Systems (RS) 設定のための拡張多目的強化学習(SMORL)を紹介する。
SMORLエージェントは、標準レコメンデーションモデルを拡張し、RLレイヤーを追加し、3つの主要な目的(正確性、多様性、新しいレコメンデーション)を同時に満たすように強制する。
実世界の2つのデータセットに対する実験結果から,集約的多様性の顕著な増加,精度の適度な向上,レコメンデーションの反復性の低下,および相補的目的としての多様性と新規性の強化の重要性が示された。
論文 参考訳(メタデータ) (2021-10-28T13:22:45Z) - Distiller: A Systematic Study of Model Distillation Methods in Natural
Language Processing [21.215122347801696]
我々は、KDパイプラインの異なるコンポーネントが結果のパフォーマンスにどのように影響するかを特定することを目指している。
我々は,KDパイプラインのさまざまな段階にわたる幅広いテクニックを組み合わせた,メタKDフレームワークであるDistillerを提案する。
異なるデータセット/タスクは異なるKDアルゴリズムを好んでおり、単純なAutoDistillerアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-23T02:12:28Z) - Reenvisioning Collaborative Filtering vs Matrix Factorization [65.74881520196762]
近年,行列因数分解に基づく協調フィルタリングモデルや,ニューラルネットワーク(ANN)を用いた類似性の学習が注目されている。
推薦エコシステム内でのANNの発表が最近疑問視され、効率性と有効性に関していくつかの比較がなされている。
本研究では,これらの手法が相補的評価次元に与える影響を解析しながら,超精度評価にもたらす可能性を示す。
論文 参考訳(メタデータ) (2021-07-28T16:29:38Z) - Sample-Rank: Weak Multi-Objective Recommendations Using Rejection
Sampling [0.5156484100374059]
本稿では,マルチゴールサンプリングとユーザ関連度(Sample-Rank)のランク付けによるマーケットプレースの多目的目標への推薦手法を提案する。
提案手法の新規性は,望まれるマルチゴール分布からサンプリングするMOレコメンデーション問題を低減し,プロダクションフレンドリーな学習-ランクモデルを構築することである。
論文 参考訳(メタデータ) (2020-08-24T09:17:18Z) - Sequential Recommendation with Self-Attentive Multi-Adversarial Network [101.25533520688654]
逐次レコメンデーションにおける文脈情報の影響を明示的にモデル化するためのMFGAN(Multi-Factor Generative Adversarial Network)を提案する。
当社のフレームワークは,複数種類の因子情報を組み込むことが柔軟であり,各因子が推奨決定にどのように貢献するかを時間とともに追跡することができる。
論文 参考訳(メタデータ) (2020-05-21T12:28:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。