論文の概要: Domain-Adaptive and Scalable Dense Retrieval for Content-Based Recommendation
- arxiv url: http://arxiv.org/abs/2602.00899v1
- Date: Sat, 31 Jan 2026 20:58:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.455794
- Title: Domain-Adaptive and Scalable Dense Retrieval for Content-Based Recommendation
- Title(参考訳): コンテンツに基づくレコメンデーションのためのドメイン適応型およびスケーラブルなDense Retrieval
- Authors: Mritunjay Pandey,
- Abstract要約: 本稿では,Amazon Reviews 2023 (Fashion) サブセットを微調整した2-towerバイエンコーダをベースとした,スケーラブルな高密度検索システムを提案する。
我々は、レビューテキスト(クエリプロキシとして)とアイテムメタデータ(ポジティブドキュメントとして)からトレーニングペアを構築し、500トークンの最大シーケンス長で50,000のサンプルインタラクションを微調整する。
826,402のカタログ項目に対するレビュー・ツー・タイトルのベンチマークでは、Recall@10が0.26(BM25)から0.66に改善されました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: E-commerce recommendation and search commonly rely on sparse keyword matching (e.g., BM25), which breaks down under vocabulary mismatch when user intent has limited lexical overlap with product metadata. We cast content-based recommendation as recommendation-as-retrieval: given a natural-language intent signal (a query or review), retrieve the top-K most relevant items from a large catalog via semantic similarity. We present a scalable dense retrieval system based on a two-tower bi-encoder, fine-tuned on the Amazon Reviews 2023 (Fashion) subset using supervised contrastive learning with Multiple Negatives Ranking Loss. We construct training pairs from review text (as a query proxy) and item metadata (as the positive document) and fine-tune on 50,000 sampled interactions with a maximum sequence length of 500 tokens. For efficient serving, we combine FAISS HNSW indexing with an ONNX Runtime inference pipeline using INT8 dynamic quantization. On a review-to-title benchmark over 826,402 catalog items, our approach improves Recall@10 from 0.26 (BM25) to 0.66, while meeting practical latency and model-size constraints: 6.1 ms median CPU inference latency (batch size 1) and a 4x reduction in model size. Overall, we provide an end-to-end, reproducible blueprint for taking domain-adapted dense retrieval from offline training to CPU-efficient serving at catalog scale.
- Abstract(参考訳): Eコマースのレコメンデーションと検索は、一般的にスパースキーワードマッチング(例えばBM25)に依存している。
我々は、コンテンツベースのレコメンデーションをレコメンデーション・ア・レコメンデーション・ア・レコメンデーションとしてキャストした: 自然言語のインテント信号(クエリやレビュー)を付与し、意味的類似性を通じて、大きなカタログから最も関連性の高いアイテムを検索する。
本稿では, Amazon Reviews 2023 (Fashion) サブセットをベースとした2-towerバイエンコーダに基づくスケーラブルな高密度検索システムを提案する。
我々は、レビューテキスト(クエリプロキシとして)とアイテムメタデータ(ポジティブドキュメントとして)からトレーニングペアを構築し、500トークンの最大シーケンス長で50,000のサンプルインタラクションを微調整する。
FAISS HNSWインデクシングを, INT8 動的量子化を用いた ONNX Runtime 推論パイプラインと組み合わせる。
826,402のカタログ項目に対するレビュー・ツー・タイトルのベンチマークでは、実用的なレイテンシとモデルサイズの制約を満たす一方で、Recall@10を0.26(BM25)から0.66に改善しました。
全体として、オフライントレーニングから、カタログスケールでのCPU効率の高いサービスまで、ドメインに適応した高密度検索を行うための、エンドツーエンドで再現可能な青写真を提供する。
関連論文リスト
- Hint-Augmented Re-ranking: Efficient Product Search using LLM-Based Query Decomposition [20.966359103135762]
LLMは,eコマースクエリにおいて最下位の意図を明らかにすることができることを示す。
提案手法では,クエリを検索と同時に生成した属性値ヒントに分解する。
本手法はMAPにおける検索効率を10.9ポイント改善し,ベースライン上のMRRにおいて5.9ポイントのランク付けを行う。
論文 参考訳(メタデータ) (2025-11-17T23:53:25Z) - Cluster-based Adaptive Retrieval: Dynamic Context Selection for RAG Applications [8.946586077722822]
クラスタベースのAdaptive Retrieval (CAR) は、順序付きクエリ文書類似度距離のクラスタリングパターンを分析して、最適な文書数を決定するアルゴリズムである。
CARは、常に最適な検索深度を選択し、最高TESスコアを達成し、固定されたトップkベースラインを全て上回る。
論文 参考訳(メタデータ) (2025-10-02T05:11:12Z) - Improving E-commerce Search with Category-Aligned Retrieval [0.0]
カテゴリー対応検索システム(CARS)は,まずユーザのクエリから製品カテゴリを予測し,そのカテゴリ内で製品を強化することによって,検索関連性を向上させる。
本稿では,クエリの埋め込みから"Trainable Category Prototypes"を作成する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-09-03T20:43:52Z) - Efficient Recommendation with Millions of Items by Dynamic Pruning of Sub-Item Embeddings [63.117573355917465]
そこで本稿では,大規模項目カタログにおける最上位項目の探索を効率的に行う動的プルーニングアルゴリズムを提案する。
我々のRecJPQPruneアルゴリズムは、理論的には、上位K候補リストから潜在的に上位の項目が除外されないことを保証しているため、安全である。
本研究では,RecJPQPrune を用いた2つの大規模データセットと3つの推奨モデルによる評価実験を行った。
論文 参考訳(メタデータ) (2025-05-01T14:36:33Z) - Adaptive Retrieval and Scalable Indexing for k-NN Search with Cross-Encoders [77.84801537608651]
クエリ-イムペアを共同で符号化することで類似性を計算するクロスエンコーダ(CE)モデルは、クエリ-イム関連性を推定する埋め込みベースモデル(デュアルエンコーダ)よりも優れている。
本稿では,潜時クエリとアイテム埋め込みを効率的に計算してCEスコアを近似し,CE類似度を近似したk-NN探索を行うスパース行列分解法を提案する。
論文 参考訳(メタデータ) (2024-05-06T17:14:34Z) - You can't pick your neighbors, or can you? When and how to rely on
retrieval in the $k$NN-LM [65.74934004876914]
Retrieval-enhanced Language Model (LM) は、大規模な外部データストアから取得したテキストにそれらの予測を条件付ける。
そのようなアプローチの1つ、$k$NN-LMは、既存のLMの予測を$k$-nearest近くのモデルの出力と補間する。
本研究では,2つの英語モデルデータセットに対するアプローチの有効性を実証的に測定する。
論文 参考訳(メタデータ) (2022-10-28T02:57:40Z) - Query Expansion Using Contextual Clue Sampling with Language Models [69.51976926838232]
本稿では,実効的なフィルタリング戦略と検索した文書の融合の組み合わせを,各文脈の生成確率に基づいて提案する。
我々の語彙マッチングに基づくアプローチは、よく確立された高密度検索モデルDPRと比較して、同様のトップ5/トップ20検索精度と上位100検索精度を実現する。
エンド・ツー・エンドのQAでは、読者モデルも我々の手法の恩恵を受けており、いくつかの競争基準に対してエクサクト・マッチのスコアが最も高い。
論文 参考訳(メタデータ) (2022-10-13T15:18:04Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - Extreme Multi-label Learning for Semantic Matching in Product Search [41.66238191444171]
顧客クエリが与えられたら、1億以上の巨大なカタログから、すべてのセマンティック関連製品を取得する。
高速リアルタイム推論のためのn-gram特徴を持つ階層線形モデルを考える。
提案手法では,クエリ毎1.25ミリ秒の低レイテンシを維持し,Recall@100の65%の改善を実現している。
論文 参考訳(メタデータ) (2021-06-23T21:16:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。