論文の概要: Modeling Product Search Relevance in e-Commerce
- arxiv url: http://arxiv.org/abs/2001.04980v1
- Date: Tue, 14 Jan 2020 21:17:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 11:48:30.062221
- Title: Modeling Product Search Relevance in e-Commerce
- Title(参考訳): eコマースにおける商品検索関連性のモデル化
- Authors: Rahul Radhakrishnan Iyer, Rohan Kohli, Shrimai Prabhumoye
- Abstract要約: 本稿では,検索クエリと商品の関連性を評価するためのロバストな手法を提案する。
BM25 や Indri のような従来の情報検索モデルと word2vec, sentence2vec, paragraph2vec といったディープラーニングモデルとの比較を行った。
- 参考スコア(独自算出の注目度): 7.139647051098728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid growth of e-Commerce, online product search has emerged as a
popular and effective paradigm for customers to find desired products and
engage in online shopping. However, there is still a big gap between the
products that customers really desire to purchase and relevance of products
that are suggested in response to a query from the customer. In this paper, we
propose a robust way of predicting relevance scores given a search query and a
product, using techniques involving machine learning, natural language
processing and information retrieval. We compare conventional information
retrieval models such as BM25 and Indri with deep learning models such as
word2vec, sentence2vec and paragraph2vec. We share some of our insights and
findings from our experiments.
- Abstract(参考訳): eコマースの急速な成長に伴い、オンライン商品検索は、顧客が望ましい商品を見つけ、オンラインショッピングに参加するための、人気で効果的なパラダイムとして浮上した。
しかし、顧客が本当に買いたいと思っている製品と、顧客からの問い合わせに応じて提案される製品の間には、依然として大きなギャップがある。
本稿では,機械学習,自然言語処理,情報検索といった手法を用いて,検索クエリと製品に対する関連度を予測できるロバストな手法を提案する。
bm25やindriといった従来の情報検索モデルとword2vec, sentence2vec, paragraph2vecなどのディープラーニングモデルを比較した。
私たちは実験から得た洞察と知見をいくつか共有しています。
関連論文リスト
- Learning to Ask: Conversational Product Search via Representation Learning [34.689904564411506]
本研究では,対話型商品検索モデルであるConvPSを提案する。
このモデルはまず、ユーザ、クエリ、アイテム、会話のセマンティック表現を共同で学習するように訓練されている。
提案したConvPSモデルは,ユーザ,クエリ,アイテム,会話の表現学習を統合された生成フレームワークに統合することができる。
論文 参考訳(メタデータ) (2024-11-18T14:05:43Z) - Exploring Query Understanding for Amazon Product Search [62.53282527112405]
問合せ理解に基づくランキング機能がどのようにランキングに影響を及ぼすかを検討する。
ランク付けのためのクエリ理解に基づくマルチタスク学習フレームワークを提案する。
本研究は,Amazon Searchにおける実世界のシステムを用いた調査・調査である。
論文 参考訳(メタデータ) (2024-08-05T03:33:11Z) - Language Models: A Guide for the Perplexed [51.88841610098437]
このチュートリアルは、言語モデルを学ぶ人と、興味を持ち、もっと学びたいと思う人とのギャップを狭めることを目的としています。
実験を通して学ぶことができる質問に焦点を当てた科学的視点を提供する。
言語モデルは、現在、その開発に繋がる研究の文脈に置かれています。
論文 参考訳(メタデータ) (2023-11-29T01:19:02Z) - Leveraging Large Language Models for Enhanced Product Descriptions in
eCommerce [6.318353155416729]
本稿では,LAMA 2.0 7B言語モデルを用いた製品記述生成の自動化手法を提案する。
私たちはこのモデルを、最大のeコマースプラットフォームの1つであるWalmartの真正な製品記述のデータセットでトレーニングします。
以上の結果から,システムはスケーラブルであるだけでなく,製品記述作成に関わる人的負担を大幅に削減することが明らかとなった。
論文 参考訳(メタデータ) (2023-10-24T00:55:14Z) - Product Information Extraction using ChatGPT [69.12244027050454]
本稿では,製品記述から属性/値対を抽出するChatGPTの可能性について検討する。
以上の結果から,ChatGPTは事前学習した言語モデルに類似した性能を達成できるが,微調整を行うにはトレーニングデータや計算処理がはるかに少ないことが示唆された。
論文 参考訳(メタデータ) (2023-06-23T09:30:01Z) - Automated Extraction of Fine-Grained Standardized Product Information
from Unstructured Multilingual Web Data [66.21317300595483]
機械学習の最近の進歩と最近発表された多言語データセットが組み合わさって、堅牢な製品属性抽出を可能にしていることを示す。
私たちのモデルは、オンラインショップや言語、あるいはその両方で、確実に製品属性を予測できます。
論文 参考訳(メタデータ) (2023-02-23T16:26:11Z) - Aggregated Customer Engagement Model [0.571097144710995]
Eコマースウェブサイトは、機械学習によるランキングモデルを使用して、顧客に対してショッピング結果を提供する。
新規または過小評価された製品は、十分な顧客エンゲージメント信号を持っておらず、人気製品に並ぶと不利になる。
本稿では,1日以内にすべての顧客エンゲージメントを集約し,同じクエリを入力トレーニングデータとして使用する新しいデータキュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T20:58:10Z) - Query2Prod2Vec Grounded Word Embeddings for eCommerce [4.137464623395377]
製品埋め込みにおける製品探索のための語彙表現を基礎とするモデルを提案する。
ショッピングセッションを活用して、基礎となるスペースを学び、商品化アノテーションを使用して評価のための語彙的類似物を構築します。
論文 参考訳(メタデータ) (2021-04-02T21:32:43Z) - Dual Side Deep Context-aware Modulation for Social Recommendation [50.59008227281762]
社会的関係と協調関係をモデル化する新しいグラフニューラルネットワークを提案する。
高次関係の上に、友人の情報とアイテムのアトラクションを捉えるために、双方向のコンテキスト認識変調を導入する。
論文 参考訳(メタデータ) (2021-03-16T11:08:30Z) - Active Learning for Product Type Ontology Enhancement in E-commerce [16.170442845801183]
本稿では,PT発見のためのドメインエキスパートの知識を効率的に活用する能動的学習フレームワークを提案する。
また,実験結果において,結果のPTの品質とカバレッジも示す。
論文 参考訳(メタデータ) (2020-09-19T02:21:12Z) - E-BERT: A Phrase and Product Knowledge Enhanced Language Model for
E-commerce [63.333860695727424]
電子商取引タスクは、ドメインフレーズの正確な理解を必要とするが、そのようなきめ細かいフレーズレベルの知識は、BERTの訓練目的によって明示的にモデル化されていない。
この問題に対処するため、我々はE-BERTという統合事前学習フレームワークを提案する。
具体的には、フレーズレベルの知識を保存するために、適応的ハイブリッドマスキングを導入し、モデルが予備単語の知識から複雑なフレーズの学習に適応的に切り替えることを可能にする。
製品レベルの知識を活用するために,E-BERT を訓練し,製品に付随する隣人を認知的なクロスアテンション層で予測するNighbor Product Restruction を導入する。
論文 参考訳(メタデータ) (2020-09-07T00:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。