論文の概要: Efficient Recommendation with Millions of Items by Dynamic Pruning of Sub-Item Embeddings
- arxiv url: http://arxiv.org/abs/2505.00560v1
- Date: Thu, 01 May 2025 14:36:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.331295
- Title: Efficient Recommendation with Millions of Items by Dynamic Pruning of Sub-Item Embeddings
- Title(参考訳): サブアイテム埋め込みの動的プルーニングによる何百万ものアイテムの効率的なレコメンデーション
- Authors: Aleksandr V. Petrov, Craig Macdonald, Nicola Tonellotto,
- Abstract要約: そこで本稿では,大規模項目カタログにおける最上位項目の探索を効率的に行う動的プルーニングアルゴリズムを提案する。
我々のRecJPQPruneアルゴリズムは、理論的には、上位K候補リストから潜在的に上位の項目が除外されないことを保証しているため、安全である。
本研究では,RecJPQPrune を用いた2つの大規模データセットと3つの推奨モデルによる評価実験を行った。
- 参考スコア(独自算出の注目度): 63.117573355917465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A large item catalogue is a major challenge for deploying modern sequential recommender models, since it makes the memory footprint of the model large and increases inference latency. One promising approach to address this is RecJPQ, which replaces item embeddings with sub-item embeddings. However, slow inference remains problematic because finding the top highest-scored items usually requires scoring all items in the catalogue, which may not be feasible for large catalogues. By adapting dynamic pruning concepts from document retrieval, we propose the RecJPQPrune dynamic pruning algorithm to efficiently find the top highest-scored items without computing the scores of all items in the catalogue. Our RecJPQPrune algorithm is safe-up-to-rank K since it theoretically guarantees that no potentially high-scored item is excluded from the final top K recommendation list, thereby ensuring no impact on effectiveness. Our experiments on two large datasets and three recommendation models demonstrate the efficiency achievable using RecJPQPrune: for instance, on the Tmall dataset with 2.2M items, we can reduce the median model scoring time by 64 times compared to the Transformer Default baseline, and 5.3 times compared to a recent scoring approach called PQTopK. Overall, this paper demonstrates the effective and efficient inference of Transformer-based recommendation models at catalogue scales not previously reported in the literature. Indeed, our RecJPQPrune algorithm can score 2 million items in under 10 milliseconds without GPUs, and without relying on Approximate Nearest Neighbour (ANN) techniques.
- Abstract(参考訳): 大規模なアイテムカタログは、モデルのメモリフットプリントを大きくし、推論遅延を増大させるため、現代的なシーケンシャルなレコメンデータモデルをデプロイする上で大きな課題である。
これに取り組むための有望なアプローチのひとつがRecJPQで、アイテムの埋め込みをサブアイコンの埋め込みに置き換える。
しかしながら、最も高いランクの商品を見つけるには、通常、カタログ内の全てのアイテムをスコアリングする必要があるため、遅い推測は問題であり、大規模なカタログでは不可能である。
文書検索から動的プルーニングの概念を適応させることにより、カタログ内の全ての項目のスコアを計算せずに最上位の項目を効率的に見つけるRecJPQPrune動的プルーニングアルゴリズムを提案する。
我々のRecJPQPruneアルゴリズムは、理論的には、潜在的に上位の項目が最終トップKレコメンデーションリストから除外されることを保証し、有効性に影響を与えないようにするため、安全である。
例えば、220万項目のTmallデータセットでは、Transformer Defaultベースラインの64倍、PQTopKと呼ばれる最近のスコアリングアプローチの5.3倍の中央値のスコアリング時間を削減できます。
本稿では,これまでに文献に報告されていないカタログスケールでのトランスフォーマーに基づくレコメンデーションモデルの効率的かつ効率的な推論について述べる。
実際、我々のRecJPQPruneアルゴリズムは、GPUなしで200万個のアイテムを10ミリ秒未満でスコアし、ANN(Approximate Nearest Neighbour)技術に依存しない。
関連論文リスト
- Scalable Cross-Entropy Loss for Sequential Recommendations with Large Item Catalogs [4.165917157093442]
本稿では,シーケンシャルラーニング・セットアップにおいて,新しいスケーラブルクロスエントロピー(SCE)損失関数を提案する。
大規模なカタログを持つデータセットのCE損失を近似し、推奨品質を損なうことなく、時間効率とメモリ使用量の両方を向上する。
複数のデータセットに対する実験結果から,SCEのピークメモリ使用率を最大100倍に抑える効果が示された。
論文 参考訳(メタデータ) (2024-09-27T13:17:59Z) - Efficient Inference of Sub-Item Id-based Sequential Recommendation Models with Millions of Items [63.117573355917465]
PQTopKアルゴリズムを用いてRecJPQに基づくモデルの推論効率を改善することができることを示す。
我々は、RecJPQで強化されたSASRecを、元のSASRecの推論手法に比べて4.5倍、RecJPQコードで実装された手法に比べて1.56倍の速度で高速化する。
論文 参考訳(メタデータ) (2024-08-19T13:43:48Z) - Optimizing Novelty of Top-k Recommendations using Large Language Models and Reinforcement Learning [16.287067991245962]
現実世界のシステムでは、新しいモデルに対する重要な考慮は、トップkレコメンデーションの新規性である。
本稿では,大規模言語モデルが新しい項目に対するフィードバックを提供する強化学習(RL)の定式化を提案する。
大規模検索エンジンにおけるクエリーアドレコメンデーションタスクの新規性向上のための提案アルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2024-06-20T10:20:02Z) - Top-Down Partitioning for Efficient List-Wise Ranking [24.600506147325717]
本稿では、ランクを深さkに分割し、文書をトップダウンで処理する新しいアルゴリズムを提案する。
このアルゴリズムは、文書から任意の深さまでを同時に比較できるピボット要素を用いることにより、本質的に並列化可能である。
論文 参考訳(メタデータ) (2024-05-23T14:00:26Z) - Adaptive Retrieval and Scalable Indexing for k-NN Search with Cross-Encoders [77.84801537608651]
クエリ-イムペアを共同で符号化することで類似性を計算するクロスエンコーダ(CE)モデルは、クエリ-イム関連性を推定する埋め込みベースモデル(デュアルエンコーダ)よりも優れている。
本稿では,潜時クエリとアイテム埋め込みを効率的に計算してCEスコアを近似し,CE類似度を近似したk-NN探索を行うスパース行列分解法を提案する。
論文 参考訳(メタデータ) (2024-05-06T17:14:34Z) - Cascading Reinforcement Learning [21.267106043818792]
カスケードバンディットモデルでは、各タイムステップにおいて、エージェントはアイテムのプールから注文されたアイテムのサブセットを推奨し、それぞれが未知のアトラクション確率に関連付けられている。
本稿では,ユーザ状態と状態遷移が意思決定に与える影響を考慮し,一般化されたカスケーディングRLフレームワークを提案する。
カスケード RL では、大きなアトラクション確率を持つだけでなく、優れた後継状態につながる項目を選択する必要がある。
そこで我々はCascadingVIとCascadingBPIの2つのアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-01-17T04:20:26Z) - Injecting Domain Adaptation with Learning-to-hash for Effective and
Efficient Zero-shot Dense Retrieval [49.98615945702959]
我々は,TAS-B高密度検索器の下流ゼロショット検索精度を向上させるためのLTHおよびベクトル圧縮技術を評価する。
以上の結果から, 従来の研究とは異なり, LTH法はゼロショットTAS-B高密度レトリバーを平均14%のnDCG@10で過小評価できることがわかった。
論文 参考訳(メタデータ) (2022-05-23T17:53:44Z) - Learning over No-Preferred and Preferred Sequence of Items for Robust
Recommendation (Extended Abstract) [69.50145858681951]
本稿では,暗黙のフィードバックよりも大規模レコメンダシステム(RS)を訓練するための理論的に支持された逐次戦略を提案する。
本稿では,モーメント法と勾配法のいずれかを用いてモデルパラメータを更新する手法を提案する。
論文 参考訳(メタデータ) (2022-02-26T22:29:43Z) - When Liebig's Barrel Meets Facial Landmark Detection: A Practical Model [87.25037167380522]
正確で、堅牢で、効率的で、一般化可能で、エンドツーエンドのトレーニングが可能なモデルを提案する。
精度を向上させるために,2つの軽量モジュールを提案する。
DQInitは、インプットからデコーダのクエリを動的に初期化し、複数のデコーダ層を持つものと同じ精度でモデルを実現する。
QAMemは、共有するクエリではなく、それぞれのクエリに別々のメモリ値を割り当てることで、低解像度のフィーチャーマップ上のクエリの識別能力を高めるように設計されている。
論文 参考訳(メタデータ) (2021-05-27T13:51:42Z) - IRLI: Iterative Re-partitioning for Learning to Index [104.72641345738425]
分散環境でのロードバランスとスケーラビリティを維持しながら、高い精度を得る方法とのトレードオフが必要だ。
クエリ項目関連データから直接バケットを学習することで、アイテムを反復的に分割するIRLIと呼ばれる新しいアプローチを提案する。
我々は,irliが極めて自然な仮定の下で高い確率で正しい項目を検索し,優れた負荷分散を実現することを数学的に示す。
論文 参考訳(メタデータ) (2021-03-17T23:13:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。