論文の概要: Multimodal Joint Attribute Prediction and Value Extraction for
E-commerce Product
- arxiv url: http://arxiv.org/abs/2009.07162v1
- Date: Tue, 15 Sep 2020 15:10:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 06:06:03.569575
- Title: Multimodal Joint Attribute Prediction and Value Extraction for
E-commerce Product
- Title(参考訳): 電子商取引商品のマルチモーダル共同属性予測と価値抽出
- Authors: Tiangang Zhu, Yue Wang, Haoran Li, Youzheng Wu, Xiaodong He and Bowen
Zhou
- Abstract要約: 商品属性値は、カスタマサービスロボット、製品レコメンデーション、製品検索など、多くのEコマースシナリオにおいて不可欠である。
現実の世界では、製品の属性値は通常不完全であり、時間とともに変化するため、実用的な応用を著しく妨げている。
本稿では,製品属性を共同で予測し,製品イメージの助けを借りてテキスト製品記述から価値を抽出するマルチモーダル手法を提案する。
- 参考スコア(独自算出の注目度): 40.46223408546036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Product attribute values are essential in many e-commerce scenarios, such as
customer service robots, product recommendations, and product retrieval. While
in the real world, the attribute values of a product are usually incomplete and
vary over time, which greatly hinders the practical applications. In this
paper, we propose a multimodal method to jointly predict product attributes and
extract values from textual product descriptions with the help of the product
images. We argue that product attributes and values are highly correlated,
e.g., it will be easier to extract the values on condition that the product
attributes are given. Thus, we jointly model the attribute prediction and value
extraction tasks from multiple aspects towards the interactions between
attributes and values. Moreover, product images have distinct effects on our
tasks for different product attributes and values. Thus, we selectively draw
useful visual information from product images to enhance our model. We annotate
a multimodal product attribute value dataset that contains 87,194 instances,
and the experimental results on this dataset demonstrate that explicitly
modeling the relationship between attributes and values facilitates our method
to establish the correspondence between them, and selectively utilizing visual
product information is necessary for the task. Our code and dataset will be
released to the public.
- Abstract(参考訳): 製品属性の価値は、カスタマサービスロボット、製品レコメンデーション、製品検索など、多くのeコマースシナリオにおいて不可欠です。
現実の世界では、製品の属性値は通常不完全であり、時間とともに変化するため、実用的な応用を著しく妨げている。
本稿では,商品の属性を共同で予測し,製品画像の助けを借りてテキストによる製品記述から価値を抽出するマルチモーダル手法を提案する。
製品属性と価値は高い相関関係にあり、例えば、製品属性が与えられることを条件に値を抽出するのが容易である。
そこで我々は属性と値の相互作用に向け,属性予測と値抽出タスクを複数の側面から共同でモデル化する。
さらに、製品イメージは、異なる製品属性と値のタスクに異なる影響を与えます。
そこで,製品画像から有用な視覚情報を選択的に抽出し,モデルを強化する。
本研究では,87,194のインスタンスを含むマルチモーダル製品属性値データセットに注釈を付けるとともに,属性と値の関係を明示的にモデル化することで,それらの対応性を確立し,視覚的製品情報を選択的に活用できることを実証する。
私たちのコードとデータセットは一般公開されます。
関連論文リスト
- PAE: LLM-based Product Attribute Extraction for E-Commerce Fashion Trends [0.6445605125467574]
本稿では,PDF形式のテキストと画像からなる今後のトレンドレポートのための製品属性抽出アルゴリズムであるPAEを提案する。
a) 構造化されていないデータ(テキストと画像)から属性を抽出する効率的なフレームワークであるPAEを開発する; (b) 今後の属性値を用いて既存の属性を検出するためのBERT表現に基づくカタログマッチング方法論を提供する; (c) PAEが有効で柔軟性があり、同等以上の(92.5% F1-Score)フレームワークであることを示す。
論文 参考訳(メタデータ) (2024-05-27T17:50:25Z) - EIVEN: Efficient Implicit Attribute Value Extraction using Multimodal LLM [52.016009472409166]
EIVENは暗黙的な属性値抽出のためのデータおよびパラメータ効率の良い生成フレームワークである。
本稿では,モデル混同を減らすための新しい学習・比較手法を提案する。
実験の結果,EIVENは暗黙的属性値の抽出において既存の手法よりも有意に優れていることがわかった。
論文 参考訳(メタデータ) (2024-04-13T03:15:56Z) - Enhanced E-Commerce Attribute Extraction: Innovating with Decorative
Relation Correction and LLAMA 2.0-Based Annotation [4.81846973621209]
本稿では,分類のためのBERT,属性値抽出のための条件付きランダムフィールド(CRF)層,データアノテーションのための大規模言語モデル(LLM)を統合した先駆的フレームワークを提案する。
提案手法は, CRFのシーケンス復号技術と相乗化したBERTの頑健な表現学習を利用して, 属性値の同定と抽出を行う。
私たちの方法論は、Walmart、BestBuyのEコマースNERデータセット、CoNLLデータセットなど、さまざまなデータセットで厳格に検証されています。
論文 参考訳(メタデータ) (2023-12-09T08:26:30Z) - AE-smnsMLC: Multi-Label Classification with Semantic Matching and
Negative Label Sampling for Product Attribute Value Extraction [42.79022954630978]
商品属性値抽出は、製品検索やレコメンデーションなどのeコマースにおける多くの現実世界アプリケーションにおいて重要な役割を果たす。
以前の方法では、製品テキスト内の値の位置にもっとアノテーションを必要とするシーケンスラベリングタスクとして扱われていた。
属性値抽出のためのセマンティックマッチングと負ラベルサンプリングを用いた分類モデルを提案する。
論文 参考訳(メタデータ) (2023-10-11T02:22:28Z) - MMAPS: End-to-End Multi-Grained Multi-Modal Attribute-Aware Product
Summarization [93.5217515566437]
マルチモーダル製品要約(MPS: Multi-modal Product Summarization)は、商品の特徴を強調して顧客の購入意欲を高めることを目的としている。
既存のMPS手法は有望な結果をもたらすが、それでもエンドツーエンドの製品要約は欠如している。
本稿では,eコマースにおける高品質な製品要約を生成するために,エンド・ツー・エンドのマルチモーダル属性対応製品要約手法(MMAPS)を提案する。
論文 参考訳(メタデータ) (2023-08-22T11:00:09Z) - Product Information Extraction using ChatGPT [69.12244027050454]
本稿では,製品記述から属性/値対を抽出するChatGPTの可能性について検討する。
以上の結果から,ChatGPTは事前学習した言語モデルに類似した性能を達成できるが,微調整を行うにはトレーニングデータや計算処理がはるかに少ないことが示唆された。
論文 参考訳(メタデータ) (2023-06-23T09:30:01Z) - OA-Mine: Open-World Attribute Mining for E-Commerce Products with Weak
Supervision [93.26737878221073]
オープンワールド環境における属性マイニングの問題点を考察し,新しい属性とその値の抽出を行う。
本稿では、まず属性値候補を生成し、次にそれらを属性のクラスタにグループ化する、原則化されたフレームワークを提案する。
我々のモデルは強いベースラインをはるかに上回り、目に見えない属性や製品タイプに一般化することができる。
論文 参考訳(メタデータ) (2022-04-29T04:16:04Z) - MAVE: A Product Dataset for Multi-source Attribute Value Extraction [10.429320377835241]
製品属性値の抽出をより容易にするための新しいデータセットであるMAVEを紹介する。
MAVEはAmazonページから220万の商品のキュレートされたセットで構成され、1257のユニークなカテゴリに300万の属性値アノテーションがある。
マルチソース製品情報から属性値を効果的に抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T06:48:31Z) - PAM: Understanding Product Images in Cross Product Category Attribute
Extraction [40.332066960433245]
この研究は、属性抽出に様々なモダリティを完全に活用するより包括的なフレームワークを提案する。
視覚的質問応答における最近の研究に触発されて,製品テキスト,光学的文字認識(OCR)トークン,および製品画像から検出された視覚オブジェクトの表現を融合するために,トランスフォーマーに基づくシーケンスモデルを用いている。
フレームワークはさらに拡張されており、複数の製品カテゴリにまたがる属性値を単一のモデルで抽出することができる。
論文 参考訳(メタデータ) (2021-06-08T18:30:17Z) - AdaTag: Multi-Attribute Value Extraction from Product Profiles with
Adaptive Decoding [55.89773725577615]
本稿ではアダプティブデコーディングを用いて属性抽出を行うAdaTagを提案する。
実世界のeコマースデータセットに関する我々の実験は、以前の方法よりも顕著に改善されたことを示している。
論文 参考訳(メタデータ) (2021-06-04T07:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。