論文の概要: CROLoss: Towards a Customizable Loss for Retrieval Models in Recommender Systems
- arxiv url: http://arxiv.org/abs/2208.02971v3
- Date: Mon, 11 Nov 2024 11:46:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:03:03.117707
- Title: CROLoss: Towards a Customizable Loss for Retrieval Models in Recommender Systems
- Title(参考訳): CROLoss:Recommenderシステムにおける検索モデルのためのカスタマイズ可能な損失を目指して
- Authors: Yongxiang Tang, Wentao Bai, Guilin Li, Xialong Liu, Yu Zhang,
- Abstract要約: 大規模レコメンデーションシステムでは、リソースの制約により、上位N候補を正確に検索することが重要である。
このような検索モデルの性能を評価するために、トップNランキングで検索される正のサンプルの頻度であるRecall@Nが広く使われている。
我々は、Recall@Nメトリクスを直接最適化できる損失関数であるCustomizable Recall@N Optimization Loss (CROLoss)を提案する。
- 参考スコア(独自算出の注目度): 5.320735663174367
- License:
- Abstract: In large-scale recommender systems, retrieving top N relevant candidates accurately with resource constrain is crucial. To evaluate the performance of such retrieval models, Recall@N, the frequency of positive samples being retrieved in the top N ranking, is widely used. However, most of the conventional loss functions for retrieval models such as softmax cross-entropy and pairwise comparison methods do not directly optimize Recall@N. Moreover, those conventional loss functions cannot be customized for the specific retrieval size N required by each application and thus may lead to sub-optimal performance. In this paper, we proposed the Customizable Recall@N Optimization Loss (CROLoss), a loss function that can directly optimize the Recall@N metrics and is customizable for different choices of N. This proposed CROLoss formulation defines a more generalized loss function space, covering most of the conventional loss functions as special cases. Furthermore, we develop the Lambda method, a gradient-based method that invites more flexibility and can further boost the system performance. We evaluate the proposed CROLoss on two public benchmark datasets. The results show that CROLoss achieves SOTA results over conventional loss functions for both datasets with various choices of retrieval size N. CROLoss has been deployed onto our online E-commerce advertising platform, where a fourteen-day online A/B test demonstrated that CROLoss contributes to a significant business revenue growth of 4.75%.
- Abstract(参考訳): 大規模レコメンデーションシステムでは、リソースの制約により、上位N候補を正確に検索することが重要である。
このような検索モデルの性能を評価するために、トップNランキングで検索される正のサンプルの頻度であるRecall@Nが広く使われている。
しかし、ソフトマックスクロスエントロピーやペアワイズ比較法のような検索モデルにおける従来の損失関数のほとんどは、直接Recall@Nを最適化していない。
さらに、これらの従来の損失関数は、各アプリケーションに必要な特定の検索サイズNに対してカスタマイズできないため、サブ最適性能につながる可能性がある。
本稿では、Recall@Nメトリクスを直接最適化し、Nの選択にカスタマイズ可能な損失関数CROLoss(Customizable Recall@N Optimization Loss)を提案する。
さらに,より柔軟性を増し,システム性能をさらに向上させることができる勾配法であるLambda法を開発した。
提案したCROLossを2つの公開ベンチマークデータセットで評価する。
その結果、CROLossは、検索サイズが多様である2つのデータセットの従来の損失関数よりもSOTA結果が得られることがわかった。CROLossは、オンラインEコマース広告プラットフォームにデプロイされ、14日間のオンラインA/Bテストにより、CROLossがビジネス収益の4.75%に寄与することを示した。
関連論文リスト
- Uncertainty-Penalized Direct Preference Optimization [52.387088396044206]
我々は、優先不確実性ペナル化スキームを導入し、DPOの悲観的な枠組みを開発する。
ペナル化は、不確実なサンプルの損失勾配を減衰させる損失の補正として機能する。
我々は,バニラDPOと比較して全体的な性能が向上し,高い不確実性選択/拒絶反応によるプロンプトの完成度も向上した。
論文 参考訳(メタデータ) (2024-10-26T14:24:37Z) - Ordinal Preference Optimization: Aligning Human Preferences via NDCG [28.745322441961438]
我々は、NDCGを異なる代理損失で近似することで、エンドツーエンドの選好最適化アルゴリズムを開発する。
OPOは、AlpacaEvalのような評価セットや一般的なベンチマークにおいて、既存のペアワイズおよびリストワイズアプローチよりも優れています。
論文 参考訳(メタデータ) (2024-10-06T03:49:28Z) - ITEM: Improving Training and Evaluation of Message-Passing based GNNs for top-k recommendation [15.643170704979465]
グラフニューラルネットワーク(GNN)はトップkレコメンデーションタスクで注目されている。
GNNは、NDCG@kやRecall@kといったランキングベースのメトリクスで評価される。
評価指標を直接最適化するためのランキング損失関数の利用について検討する。
論文 参考訳(メタデータ) (2024-07-03T13:35:23Z) - Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - Adaptive Preference Scaling for Reinforcement Learning with Human Feedback [103.36048042664768]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の価値を合わせるための一般的なアプローチである。
本稿では,分散ロバスト最適化(DRO)に基づく適応的優先損失を提案する。
提案手法は多用途であり,様々な選好最適化フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-06-04T20:33:22Z) - Lower-Left Partial AUC: An Effective and Efficient Optimization Metric
for Recommendation [52.45394284415614]
我々は,AUCのように計算効率が良く,Top-Kランキングの指標と強く相関する新しい最適化指標であるLLPAUCを提案する。
LLPAUCはローワーレフト角のROC曲線の下の部分領域のみを考慮し、最適化はトップKに焦点をあてる。
論文 参考訳(メタデータ) (2024-02-29T13:58:33Z) - Adaptive Neural Ranking Framework: Toward Maximized Business Goal for
Cascade Ranking Systems [33.46891569350896]
カスケードランキングは、オンライン広告とレコメンデーションシステムにおける大規模なトップk選択問題に広く使われている。
それまでの学習からランクへの取り組みは、モデルに完全な順序やトップクオーダを学習させることに重点を置いていた。
我々はこの手法をアダプティブ・ニューラルランキング・フレームワーク (Adaptive Neural Ranking Framework, ARF) と命名する。
論文 参考訳(メタデータ) (2023-10-16T14:43:02Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - SPR:Supervised Personalized Ranking Based on Prior Knowledge for
Recommendation [6.407166061614783]
本稿では,事前知識に基づくSPR(Supervised Personalized Ranking)という新しい損失関数を提案する。
BPRとは異なり、ユーザ、ポジティブ項目、ネガティブ項目を3倍にするのではなく、提案したSPRは、ユーザ、類似ユーザ、ポジティブ項目、ネガティブ項目を4倍に構成する。
論文 参考訳(メタデータ) (2022-07-07T10:00:54Z) - Determinantal Point Process Likelihoods for Sequential Recommendation [12.206748373325972]
本稿では,DPP(Determinantal Point Process)の確率に基づく2つの新たな損失関数を提案する。
提案した損失関数を実世界の3つのデータセットで実験した結果、品質と多様性の指標の両方において、最先端のシーケンシャルなレコメンデーション手法よりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2022-04-25T11:20:10Z) - LoRD-Net: Unfolded Deep Detection Network with Low-Resolution Receivers [104.01415343139901]
本稿では,1ビット計測から情報シンボルを復元する「LoRD-Net」というディープ検出器を提案する。
LoRD-Netは、関心のシグナルを回復するためのタスクベースのアーキテクチャである。
無線通信における1ビット信号回復のためのレシーバアーキテクチャの評価を行った。
論文 参考訳(メタデータ) (2021-02-05T04:26:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。