論文の概要: Enhancing Relevance of Embedding-based Retrieval at Walmart
- arxiv url: http://arxiv.org/abs/2408.04884v2
- Date: Wed, 14 Aug 2024 22:17:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 17:51:32.731323
- Title: Enhancing Relevance of Embedding-based Retrieval at Walmart
- Title(参考訳): Walmartにおける埋め込み型検索の妥当性向上
- Authors: Juexin Lin, Sachin Yadav, Feng Liu, Nicholas Rossi, Praveen R. Suram, Satya Chembolu, Prijith Chandran, Hrushikesh Mohapatra, Tony Lee, Alessandro Magnani, Ciya Liao,
- Abstract要約: 検索関連性の観点からEBRモデルの能力をさらに強化するためのいくつかのアプローチを提案する。
EBRの有効性は、オフラインの妥当性評価、オンラインABテスト、実運用へのデプロイメント成功を通じて実証されます。
- 参考スコア(独自算出の注目度): 37.59129445482129
- License:
- Abstract: Embedding-based neural retrieval (EBR) is an effective search retrieval method in product search for tackling the vocabulary gap between customer search queries and products. The initial launch of our EBR system at Walmart yielded significant gains in relevance and add-to-cart rates [1]. However, despite EBR generally retrieving more relevant products for reranking, we have observed numerous instances of relevance degradation. Enhancing retrieval performance is crucial, as it directly influences product reranking and affects the customer shopping experience. Factors contributing to these degradations include false positives/negatives in the training data and the inability to handle query misspellings. To address these issues, we present several approaches to further strengthen the capabilities of our EBR model in terms of retrieval relevance. We introduce a Relevance Reward Model (RRM) based on human relevance feedback. We utilize RRM to remove noise from the training data and distill it into our EBR model through a multi-objective loss. In addition, we present the techniques to increase the performance of our EBR model, such as typo-aware training, and semi-positive generation. The effectiveness of our EBR is demonstrated through offline relevance evaluation, online AB tests, and successful deployments to live production. [1] Alessandro Magnani, Feng Liu, Suthee Chaidaroon, Sachin Yadav, Praveen Reddy Suram, Ajit Puthenputhussery, Sijie Chen, Min Xie, Anirudh Kashi, Tony Lee, et al. 2022. Semantic retrieval at walmart. In Proceedings of the 28th ACM SIGKDD Conference on Knowledge Discovery and Data Mining. 3495-3503.
- Abstract(参考訳): 埋め込み型ニューラル検索(EBR)は,ユーザ検索クエリと製品間の語彙的ギャップに対処する製品検索において有効な検索手法である。
WalmartでEBRシステムを最初に立ち上げたことにより、関連性が大きく向上し、キャレットへの追加レート[1]が向上しました。
しかし、ERRは一般的に、より関連性の高い製品を再評価するが、関連性劣化の事例は多数見てきた。
商品のリグレードに直接影響を与え、顧客の買い物体験に影響を与えるため、検索性能の向上が不可欠である。
これらの劣化に寄与する要因には、トレーニングデータにおける偽陽性/負の値と、クエリミススペルを処理できないことが含まれる。
これらの課題に対処するため、検索関連性の観点から、EBRモデルの能力をさらに強化するいくつかのアプローチを提案する。
本稿では,人間関係フィードバックに基づくRelevance Reward Model(RRM)を提案する。
我々はRRMを用いてトレーニングデータからノイズを除去し、多目的損失によりEBRモデルに蒸留する。
また,タイポ認識訓練や半陽性生成など,ERRモデルの性能向上手法を提案する。
EBRの有効性は、オフラインの妥当性評価、オンラインABテスト、実運用へのデプロイメント成功を通じて実証されます。
[1] Alessandro Magnani, Feng Liu, Suthee Chaidaroon, Sachin Yadav, Praveen Reddy Suram, Ajit Puthenputhussery, Sijie Chen, Min Xie, Anirudh Kashi, Tony Lee, et al 2022。
ウォルマートにおける意味検索
第28回ACM SIGKDD Conference on Knowledge Discovery and Data Mining に参加して
3495-3503。
関連論文リスト
- Breaking the Hourglass Phenomenon of Residual Quantization: Enhancing the Upper Bound of Generative Retrieval [16.953923822238455]
ジェネレーティブ検索(GR)は、検索とレコメンデーションシステムにおいて、トランスフォーメーションパラダイムとして登場した。
ホログラス」現象は生成検索におけるRQ-SIDの性能に大きな影響を及ぼす。
本稿では,この問題を軽減し,現実のEコマースアプリケーションにおける生成検索の有効性を高めるための効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2024-07-31T09:52:53Z) - A Thorough Performance Benchmarking on Lightweight Embedding-based Recommender Systems [67.52782366565658]
State-of-the-art recommender system (RS) は、埋め込みベクトルによって符号化される分類的特徴に依存し、結果として非常に大きな埋め込みテーブルとなる。
軽量埋め込み型RSの繁栄にもかかわらず、評価プロトコルには幅広い多様性が見られる。
本研究では, LERSの性能, 効率, クロスタスク転送性について, 徹底的なベンチマークによる検討を行った。
論文 参考訳(メタデータ) (2024-06-25T07:45:00Z) - SeRTS: Self-Rewarding Tree Search for Biomedical Retrieval-Augmented Generation [50.26966969163348]
大規模言語モデル(LLM)は,検索増強世代(RAG)の進展に伴い,生物医学領域において大きな可能性を示した。
既存の検索強化アプローチは、様々なクエリやドキュメント、特に医療知識クエリに対処する上で、課題に直面している。
モンテカルロ木探索(MCTS)と自己回帰パラダイムに基づく自己回帰木探索(SeRTS)を提案する。
論文 参考訳(メタデータ) (2024-06-17T06:48:31Z) - Large Language Models for Relevance Judgment in Product Search [48.56992980315751]
検索クエリに対する検索および再ランクされたアイテムの高い関連性は、製品検索の成功の土台である。
本稿では,大規模言語モデル(LLM)を活用して,クエリ・イテムペア(QIP)の関連判断を大規模に自動化する手法について述べる。
本研究は,製品検索における関連判断の自動化の分野への直接的な影響を示唆するものである。
論文 参考訳(メタデータ) (2024-06-01T00:52:41Z) - Crossmodal ASR Error Correction with Discrete Speech Units [16.58209270191005]
ASR誤り訂正(AEC)に対するASR後処理手法を提案する。
我々は、事前学習と微調整の戦略を探求し、ASRドメインの不一致現象を明らかにする。
そこで本稿では,AEC品質向上のための単語埋め込みの整合・強化を目的とした,離散音声ユニットの組込みを提案する。
論文 参考訳(メタデータ) (2024-05-26T19:58:38Z) - Retrieval-Oriented Knowledge for Click-Through Rate Prediction [29.55757862617378]
クリックスルー率(CTR)予測は、パーソナライズされたオンラインサービスにとって不可欠である。
underlineretrieval-underlineoriented underlineknowledge(bfname)フレームワークは、実際の検索プロセスをバイパスする。
nameは、検索および集約された表現を保存および模倣する知識ベースを特徴とする。
論文 参考訳(メタデータ) (2024-04-28T20:21:03Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z) - Is ChatGPT Good at Search? Investigating Large Language Models as
Re-Ranking Agents [56.104476412839944]
大規模言語モデル(LLM)は、様々な言語関連タスクにまたがる顕著なゼロショットの一般化を実証している。
本稿では、情報検索(IR)における関連性ランキングのためのジェネレーティブLLMについて検討する。
LLMのデータ汚染に関する懸念に対処するため,我々はNovereEvalという新しいテストセットを収集した。
実世界のアプリケーションの効率を向上させるため、ChatGPTのランキング能力を小さな特殊モデルに蒸留する可能性を探る。
論文 参考訳(メタデータ) (2023-04-19T10:16:03Z) - Multi-Objective Personalized Product Retrieval in Taobao Search [27.994166796745496]
関連性, 露出性, クリック性, 購入性の4つの階層的最適化目標を持つ, 新規な多目的パーソナライズされた製品検索モデルを提案する。
MOPPRは28日間のオンラインA/Bテストで0.96%のトランザクションと1.29%のGMV改善を達成した。
2021年のDouble-11ショッピングフェスティバル以来、MOPPRは従来のMGDSPRに代わるモバイルタオバオ検索に完全に配備されている。
論文 参考訳(メタデータ) (2022-10-09T05:18:42Z) - Generator and Critic: A Deep Reinforcement Learning Approach for Slate
Re-ranking in E-commerce [17.712394984304336]
本稿では,新しいジェネレータと批評スレートの再評価手法を提案する。
PPO探索と呼ばれる探索強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-25T16:24:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。