論文の概要: An Embedding-Based Grocery Search Model at Instacart
- arxiv url: http://arxiv.org/abs/2209.05555v1
- Date: Mon, 12 Sep 2022 19:15:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-14 13:05:53.150462
- Title: An Embedding-Based Grocery Search Model at Instacart
- Title(参考訳): instacartにおける組込み型食料品検索モデル
- Authors: Yuqing Xie and Taesik Na and Xiao Xiao and Saurav Manchanda and Young
Rao and Zhihong Xu and Guanghua Shu and Esther Vasiete and Tejaswi Tenneti
and Haixun Wang
- Abstract要約: Instacartにおける食料品検索のための埋め込み型モデルを提案する。
このシステムは、2tower変換器ベースのエンコーダアーキテクチャを用いてクエリと製品表現を学習する。
組込み型検索モデルの訓練と展開方法を示し,提案手法の有効性を詳細に分析する。
- 参考スコア(独自算出の注目度): 8.812876584016244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The key to e-commerce search is how to best utilize the large yet noisy log
data. In this paper, we present our embedding-based model for grocery search at
Instacart. The system learns query and product representations with a two-tower
transformer-based encoder architecture. To tackle the cold-start problem, we
focus on content-based features. To train the model efficiently on noisy data,
we propose a self-adversarial learning method and a cascade training method.
AccOn an offline human evaluation dataset, we achieve 10% relative improvement
in RECALL@20, and for online A/B testing, we achieve 4.1% cart-adds per search
(CAPS) and 1.5% gross merchandise value (GMV) improvement. We describe how we
train and deploy the embedding based search model and give a detailed analysis
of the effectiveness of our method.
- Abstract(参考訳): eコマース検索の鍵は、大きくて騒がしいログデータをどのように活用するかだ。
本稿では,Instacartにおける食料品探索のための埋め込み型モデルを提案する。
システムは、2towerのトランスフォーマーベースのエンコーダアーキテクチャでクエリと製品表現を学習する。
コールドスタート問題に対処するために、コンテンツベースの機能に注目します。
ノイズの多いデータに基づいてモデルを効率的に訓練するために,自己学習法とカスケード学習法を提案する。
Acc オフラインの人間評価データセット上では RECALL@20 の相対的な改善を10% 達成し,オンライン A/B テストでは,検索毎のカート加算率 (CAPS) が4.1%,粗雑商品価値 (GMV) が1.5% 向上した。
本稿では,組込み型検索モデルの学習と展開方法を説明し,本手法の有効性に関する詳細な分析を行う。
関連論文リスト
- Efficient Inference of Sub-Item Id-based Sequential Recommendation Models with Millions of Items [63.117573355917465]
PQTopKアルゴリズムを用いてRecJPQに基づくモデルの推論効率を改善することができることを示す。
我々は、RecJPQで強化されたSASRecを、元のSASRecの推論手法に比べて4.5倍、RecJPQコードで実装された手法に比べて1.56倍の速度で高速化する。
論文 参考訳(メタデータ) (2024-08-19T13:43:48Z) - 1.5-Pints Technical Report: Pretraining in Days, Not Months -- Your Language Model Thrives on Quality Data [0.0]
本稿では,9日間で言語モデル"1.5-Pints"を事前学習するための計算効率のよい手法を提案する。
MT-Bench(人間の判断をエミュレートするベンチマーク)に基づいて、1.5-PintsはAppleのOpenELMとMicrosoftのPhiを上回っている。
これは、自動化された人間によるレビューと手動によるレビューを組み合わせて、57億トークンのトレーニング済みデータセットを慎重にキュレートすることで達成される。
論文 参考訳(メタデータ) (2024-08-07T02:14:52Z) - Unpacking DPO and PPO: Disentangling Best Practices for Learning from Preference Feedback [110.16220825629749]
嗜好フィードバックからの学習は、現代言語モデルの生成品質と性能を改善するための重要なステップとして現れてきた。
本研究では、嗜好データ、学習アルゴリズム、報酬モデル、政策訓練プロンプトという、嗜好に基づく学習の4つの側面を特定する。
以上の結果から,すべての側面がパフォーマンス上重要であることが示唆された。
論文 参考訳(メタデータ) (2024-06-13T16:17:21Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - ExtractGPT: Exploring the Potential of Large Language Models for Product Attribute Value Extraction [52.14681890859275]
電子商取引プラットフォームは、属性と値のペアという形で構造化された製品データを必要とする。
BERTベースの抽出法では,タスク固有の大量のトレーニングデータを必要とする。
本稿では,大規模言語モデル (LLM) を,より訓練的かつ堅牢な代替手段として活用することを検討する。
論文 参考訳(メタデータ) (2023-10-19T07:39:00Z) - DiffNAS: Bootstrapping Diffusion Models by Prompting for Better
Architectures [63.12993314908957]
そこで我々は,DiffNASと呼ばれるベースモデル探索手法を提案する。
GPT-4をスーパーネットとして利用して検索を高速化し,検索メモリを補足して結果を向上する。
厳密な実験により,GPTに基づくシナリオでは,探索効率を2倍に向上できることが示された。
論文 参考訳(メタデータ) (2023-10-07T09:10:28Z) - Opinion mining using Double Channel CNN for Recommender System [0.0]
深層学習モデルを用いた感情分析のアプローチを提案し,それを製品に推奨する。
意見マイニングには2チャネル畳み込みニューラルネットワークモデルが使用されており、5つのレイヤを持ち、データから重要な特徴を抽出する。
提案手法の精度は91.6%に達し, 従来のアスペクトベース手法に比べて有意に向上した。
論文 参考訳(メタデータ) (2023-07-15T13:11:18Z) - Unified Embedding Based Personalized Retrieval in Etsy Search [0.206242362470764]
グラフ, 変換器, 項ベース埋め込みを終末に組み込んだ統合埋め込みモデルを学習することを提案する。
我々のパーソナライズされた検索モデルは、検索購入率5.58%、サイト全体のコンバージョン率2.63%によって、検索体験を著しく改善する。
論文 参考訳(メタデータ) (2023-06-07T23:24:50Z) - Efficient Data-specific Model Search for Collaborative Filtering [56.60519991956558]
協調フィルタリング(CF)はレコメンダシステムの基本的なアプローチである。
本稿では,機械学習(AutoML)の最近の進歩を動機として,データ固有のCFモデルを設計することを提案する。
ここでキーとなるのは、最先端(SOTA)のCFメソッドを統一し、それらを入力エンコーディング、埋め込み関数、インタラクション、予測関数の非結合ステージに分割する新しいフレームワークである。
論文 参考訳(メタデータ) (2021-06-14T14:30:32Z) - Learning Robust Models for e-Commerce Product Search [23.537201383165755]
検索クエリ意図にマッチしないアイテムを表示することは、eコマースにおける顧客エクスペリエンスを低下させる。
問題を緩和するには、大きなラベル付きデータセットが必要である。
我々は、ミスマッチを効果的に分類することを学ぶ、深いエンドツーエンドモデルを開発する。
論文 参考訳(メタデータ) (2020-05-07T17:22:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。