論文の概要: Intent-based Product Collections for E-commerce using Pretrained
Language Models
- arxiv url: http://arxiv.org/abs/2110.08241v1
- Date: Fri, 15 Oct 2021 17:52:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 14:21:09.049271
- Title: Intent-based Product Collections for E-commerce using Pretrained
Language Models
- Title(参考訳): 事前学習型言語モデルを用いたeコマース用インテントベース製品コレクション
- Authors: Hiun Kim, Jisu Jeong, Kyung-Min Kim, Dongjun Lee, Hyun Dong Lee,
Dongpil Seo, Jeeseung Han, Dong Wook Park, Ji Ae Heo, Rak Yeong Kim
- Abstract要約: 我々は、意図に基づく製品コレクションを作成するために、Webスケール製品のテキスト属性を利用する事前学習言語モデル(PLM)を使用している。
本モデルは,オフライン評価において,意図に基づく製品マッチングのための検索ベースラインモデルよりも大幅に優れている。
電子商取引プラットフォーム上でのオンライン実験結果から, PLM法により, CTR, CVR, オーダー多様性が向上した製品コレクションを, 専門家によるコレクションと比較して構築できることが示唆された。
- 参考スコア(独自算出の注目度): 8.847005669899703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building a shopping product collection has been primarily a human job. With
the manual efforts of craftsmanship, experts collect related but diverse
products with common shopping intent that are effective when displayed
together, e.g., backpacks, laptop bags, and messenger bags for freshman bag
gifts. Automatically constructing a collection requires an ML system to learn a
complex relationship between the customer's intent and the product's
attributes. However, there have been challenging points, such as 1) long and
complicated intent sentences, 2) rich and diverse product attributes, and 3) a
huge semantic gap between them, making the problem difficult. In this paper, we
use a pretrained language model (PLM) that leverages textual attributes of
web-scale products to make intent-based product collections. Specifically, we
train a BERT with triplet loss by setting an intent sentence to an anchor and
corresponding products to positive examples. Also, we improve the performance
of the model by search-based negative sampling and category-wise positive pair
augmentation. Our model significantly outperforms the search-based baseline
model for intent-based product matching in offline evaluations. Furthermore,
online experimental results on our e-commerce platform show that the PLM-based
method can construct collections of products with increased CTR, CVR, and
order-diversity compared to expert-crafted collections.
- Abstract(参考訳): ショッピング製品コレクションの構築は、主に人間の仕事でした。
手作業による職人技の努力により、専門家は、バックパック、ラップトップバッグ、新入生のバッグギフト用のメッセンジャーバッグなど、共通のショッピング意図を持つ、関連するが多様な商品を収集する。
コレクションを自動的に構築するには、顧客の意図と製品の属性の間の複雑な関係を学習するMLシステムが必要である。
しかし、挑戦的な点があった。
1)長く複雑な意図文
2)豊かで多様な製品属性、及び
3) それらの間に大きな意味的ギャップがあり、問題を難しくします。
本稿では,webスケール製品のテキスト属性を活用してインテントベースの製品コレクションを作成するプリトレーニング言語モデル(plm)について述べる。
具体的には、アンカーに意図文を設定し、正の例に対応する積を設定することで、三重項損失を伴うBERTを訓練する。
また、探索に基づく負のサンプリングとカテゴリワイドの正のペア増強によりモデルの性能を向上させる。
本モデルは,オフライン評価における意図に基づく製品マッチングの検索ベースラインモデルを大幅に上回っている。
さらに,当社の電子商取引プラットフォーム上でのオンライン実験結果から,PLM法によりCTR,CVR,オーダー多様性が向上した製品コレクションを,専門家が作成したコレクションと比較して構築できることが示唆された。
関連論文リスト
- IntentionQA: A Benchmark for Evaluating Purchase Intention Comprehension Abilities of Language Models in E-commerce [71.37481473399559]
本稿では,eコマースにおけるLMの購入意図の理解を評価するためのベンチマークであるIntentionQAを提案する。
インテンションQAは、自動化パイプラインを使用して構築された3つの困難レベルにわたる4,360の慎重に計算された問題で構成されている。
人間の評価は、我々のベンチマークの高品質で低い偽陰性率を示す。
論文 参考訳(メタデータ) (2024-06-14T16:51:21Z) - Text-Based Product Matching -- Semi-Supervised Clustering Approach [9.748519919202986]
本稿では,半教師付きクラスタリング手法を用いた製品マッチングの新しい哲学を提案する。
実世界のデータセット上でIDECアルゴリズムを実験することにより,本手法の特性について検討する。
論文 参考訳(メタデータ) (2024-02-01T18:52:26Z) - Product Information Extraction using ChatGPT [69.12244027050454]
本稿では,製品記述から属性/値対を抽出するChatGPTの可能性について検討する。
以上の結果から,ChatGPTは事前学習した言語モデルに類似した性能を達成できるが,微調整を行うにはトレーニングデータや計算処理がはるかに少ないことが示唆された。
論文 参考訳(メタデータ) (2023-06-23T09:30:01Z) - A Multi-Granularity Matching Attention Network for Query Intent
Classification in E-commerce Retrieval [9.034096715927731]
本稿では,クエリインテント分類のためのMMAN(Multi-granularity Matching Attention Network)を提案する。
MMANには、セルフマッチングモジュール、シャルレベルマッチングモジュール、セマンティックレベルマッチングモジュールの3つのモジュールが含まれている。
我々は大規模なオフラインおよびオンラインA/B実験を行い、MMANが強いベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2023-03-28T10:25:17Z) - Automated Extraction of Fine-Grained Standardized Product Information
from Unstructured Multilingual Web Data [66.21317300595483]
機械学習の最近の進歩と最近発表された多言語データセットが組み合わさって、堅牢な製品属性抽出を可能にしていることを示す。
私たちのモデルは、オンラインショップや言語、あるいはその両方で、確実に製品属性を予測できます。
論文 参考訳(メタデータ) (2023-02-23T16:26:11Z) - Two Is Better Than One: Dual Embeddings for Complementary Product
Recommendations [2.294014185517203]
製品に2つの埋め込み表現を活用することで、補足的項目の発見に新しいアプローチを適用する。
我々のモデルは実装が簡単であり、あらゆるeコマースウェブサイトで補完的なアイテムレコメンデーションを生成するための優れた候補となる。
論文 参考訳(メタデータ) (2022-11-28T00:58:21Z) - e-CLIP: Large-Scale Vision-Language Representation Learning in
E-commerce [9.46186546774799]
本研究では,未ラベルの製品テキストや画像を用いて,言語モデルと視覚モデルとを整合させるコントラスト学習フレームワークを提案する。
我々は、大規模表現学習モデルを訓練し、ドメイン固有の課題に対処するソリューションを共有するために使用したテクニックを提示する。
論文 参考訳(メタデータ) (2022-07-01T05:16:47Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Automatic Validation of Textual Attribute Values in E-commerce Catalog
by Learning with Limited Labeled Data [61.789797281676606]
そこで我々はMetaBridgeと呼ばれる新しいメタ学習潜伏変数アプローチを提案する。
限られたラベル付きデータを持つカテゴリのサブセットから、転送可能な知識を学ぶことができる。
ラベルのないデータで、目に見えないカテゴリの不確実性を捉えることができる。
論文 参考訳(メタデータ) (2020-06-15T21:31:05Z) - Cross-Lingual Low-Resource Set-to-Description Retrieval for Global
E-Commerce [83.72476966339103]
言語間情報検索は、国境を越えたeコマースにおける新しい課題である。
文脈依存型言語間マッピングの強化を図った新しい言語間マッチングネットワーク(CLMN)を提案する。
実験結果から,提案したCLMNは課題に対して印象的な結果をもたらすことが示唆された。
論文 参考訳(メタデータ) (2020-05-17T08:10:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。