論文の概要: Scaling Multilingual Semantic Search in Uber Eats Delivery
- arxiv url: http://arxiv.org/abs/2603.06586v3
- Date: Wed, 11 Mar 2026 03:54:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.389009
- Title: Scaling Multilingual Semantic Search in Uber Eats Delivery
- Title(参考訳): Uber Eatsデリバリにおける多言語セマンティック検索のスケールアップ
- Authors: Bo Ling, Zheng Liu, Haoyang Chen, Divya Nagar, Luting Yang, Mehul Parsana,
- Abstract要約: 本稿では,Uber Eatsにおける生産指向のセマンティック検索システムを提案する。
我々のアプローチは、数億のクエリ-ドキュメントインタラクションを使用して、Qwen2の2-towerベースモデルを微調整する。
本システムでは,6つの市場と3つの垂直線にまたがる強力なベースラインに対して,大幅なリコールゲインを実現している。
- 参考スコア(独自算出の注目度): 6.669643425558333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a production-oriented semantic retrieval system for Uber Eats that unifies retrieval across stores, dishes, and grocery/retail items. Our approach fine-tunes a Qwen2 two-tower base model using hundreds of millions of query-document interactions that were aggregated and anonymized pretraining. We train the model with a combination of InfoNCE on in-batch negatives and triplet-NCE loss on hard negatives, and we leverage Matryoshka Representation Learning (MRL) to serve multiple embedding sizes from a single model. Our system achieves substantial recall gains over a strong baseline across six markets and three verticals. This paper presents the end to end work including data curation, model architecture, large-scale training, and evaluation. We also share key insights and practical lessons for building a unified, multilingual, and multi-vertical retrieval system for consumer search.
- Abstract(参考訳): 本稿では,店舗,食器,雑貨・小売商品間での検索を統一する,Uber Eats用の生産指向のセマンティック検索システムを提案する。
提案手法は,数億件のクエリ-ドキュメントインタラクションを集約し,匿名化された事前学習を用いて,Qwen2の2-towerベースモデルを微調整する。
我々は, InfoNCE と InfoNCE を併用して, ハード負の3重項損失を学習し, Matryoshka Representation Learning (MRL) を用いて, 一つのモデルから複数の埋め込みサイズを提供する。
本システムでは,6つの市場と3つの垂直線にまたがる強力なベースラインに対して,大幅なリコールゲインを実現している。
本稿では、データキュレーション、モデルアーキテクチャ、大規模トレーニング、評価を含むエンドツーエンドの作業について述べる。
また、消費者検索のための統合された多言語多言語検索システムを構築するための重要な洞察と実践的教訓を共有した。
関連論文リスト
- Pretraining Language Models to Ponder in Continuous Space [50.52734567589996]
単一のトークン生成ステップ内で,前処理を繰り返し呼び出すことによって,この思考プロセスを言語モデルに導入する。
人間のアノテーションを使わずに、自己教師付き学習を通じて、この方法でモデルを学習できることが示される。
論文 参考訳(メタデータ) (2025-05-27T03:47:33Z) - Tevatron 2.0: Unified Document Retrieval Toolkit across Scale, Language, and Modality [74.59049806800176]
このデモペーパーでは、Tevatronツールキットの重要な特徴、学界と産業の橋渡しについて取り上げている。
強い多言語・多モーダルな有効性を実現するための密集型検索器について紹介する。
私たちはOmniEmbedもリリースしています。私たちの知る限り、テキスト、画像ドキュメント、ビデオ、オーディオ検索を統一する最初の埋め込みモデルです。
論文 参考訳(メタデータ) (2025-05-05T08:52:49Z) - Semantic Ads Retrieval at Walmart eCommerce with Language Models Progressively Trained on Multiple Knowledge Domains [6.1008328784394]
Walmart.comの広告検索システムを最適化するために,エンド・ツー・エンドのソリューションを提案する。
当社のアプローチは,製品カテゴリ情報を用いたBERTライクな分類モデルを事前学習することである。
ベースラインDSSMベースのモデルと比較して,検索関連度を最大16%向上させる。
論文 参考訳(メタデータ) (2025-02-13T09:01:34Z) - Large Concept Models: Language Modeling in a Sentence Representation Space [62.73366944266477]
本稿では,概念を命名した明示的な高レベルな意味表現に基づくアーキテクチャの試みを行う。
概念は言語とモダリティに依存しないものであり、フローにおけるより高いレベルの考えや行動を表している。
本モデルでは,多くの言語に対して,ゼロショットの一般化性能が顕著であることを示す。
論文 参考訳(メタデータ) (2024-12-11T23:36:20Z) - LLAVADI: What Matters For Multimodal Large Language Models Distillation [77.73964744238519]
本研究では,新しい効率的なモデル構造を提案するのではなく,スクラッチから小規模MLLMを訓練する。
本研究は, 知識蒸留プロセスにおける学習戦略, モデル選択, 蒸留アルゴリズムに関するものである。
異なるベンチマークと適切な戦略を評価することで、2.7Bの小型モデルでも7Bまたは13Bのパラメータを持つ大型モデルと同等に動作することができる。
論文 参考訳(メタデータ) (2024-07-28T06:10:47Z) - Multi-Modal Retrieval For Large Language Model Based Speech Recognition [15.494654232953678]
我々は,kNN-LMとクロスアテンション手法の2つのアプローチによるマルチモーダル検索を提案する。
音声に基づくマルチモーダル検索はテキストベースの検索よりも優れていることを示す。
我々は,Spoken-Squad質問応答データセットを用いて,最先端の認識結果を得る。
論文 参考訳(メタデータ) (2024-06-13T22:55:22Z) - AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators [98.11286353828525]
GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
本稿では,2段階のアプローチを取り入れたAnnoLLMを提案する。
我々はAnnoLLMを用いた対話型情報検索データセットを構築した。
論文 参考訳(メタデータ) (2023-03-29T17:03:21Z) - ZhichunRoad at Amazon KDD Cup 2022: MultiTask Pre-Training for
E-Commerce Product Search [4.220439000486713]
検索結果の質を向上させるために,頑健な多言語モデルを提案する。
事前学習の段階では、mlmタスク、分類タスク、コントラスト学習タスクを採用する。
微調整段階では、自信ある学習、指数的移動平均法(EMA)、対人訓練(FGM)、正規化ドロップアウト戦略(R-Drop)を用いる。
論文 参考訳(メタデータ) (2023-01-31T07:31:34Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Intent-based Product Collections for E-commerce using Pretrained
Language Models [8.847005669899703]
我々は、意図に基づく製品コレクションを作成するために、Webスケール製品のテキスト属性を利用する事前学習言語モデル(PLM)を使用している。
本モデルは,オフライン評価において,意図に基づく製品マッチングのための検索ベースラインモデルよりも大幅に優れている。
電子商取引プラットフォーム上でのオンライン実験結果から, PLM法により, CTR, CVR, オーダー多様性が向上した製品コレクションを, 専門家によるコレクションと比較して構築できることが示唆された。
論文 参考訳(メタデータ) (2021-10-15T17:52:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。