論文の概要: Multimodal Joint Attribute Prediction and Value Extraction for
E-commerce Product
- arxiv url: http://arxiv.org/abs/2009.07162v1
- Date: Tue, 15 Sep 2020 15:10:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 06:06:03.569575
- Title: Multimodal Joint Attribute Prediction and Value Extraction for
E-commerce Product
- Title(参考訳): 電子商取引商品のマルチモーダル共同属性予測と価値抽出
- Authors: Tiangang Zhu, Yue Wang, Haoran Li, Youzheng Wu, Xiaodong He and Bowen
Zhou
- Abstract要約: 商品属性値は、カスタマサービスロボット、製品レコメンデーション、製品検索など、多くのEコマースシナリオにおいて不可欠である。
現実の世界では、製品の属性値は通常不完全であり、時間とともに変化するため、実用的な応用を著しく妨げている。
本稿では,製品属性を共同で予測し,製品イメージの助けを借りてテキスト製品記述から価値を抽出するマルチモーダル手法を提案する。
- 参考スコア(独自算出の注目度): 40.46223408546036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Product attribute values are essential in many e-commerce scenarios, such as
customer service robots, product recommendations, and product retrieval. While
in the real world, the attribute values of a product are usually incomplete and
vary over time, which greatly hinders the practical applications. In this
paper, we propose a multimodal method to jointly predict product attributes and
extract values from textual product descriptions with the help of the product
images. We argue that product attributes and values are highly correlated,
e.g., it will be easier to extract the values on condition that the product
attributes are given. Thus, we jointly model the attribute prediction and value
extraction tasks from multiple aspects towards the interactions between
attributes and values. Moreover, product images have distinct effects on our
tasks for different product attributes and values. Thus, we selectively draw
useful visual information from product images to enhance our model. We annotate
a multimodal product attribute value dataset that contains 87,194 instances,
and the experimental results on this dataset demonstrate that explicitly
modeling the relationship between attributes and values facilitates our method
to establish the correspondence between them, and selectively utilizing visual
product information is necessary for the task. Our code and dataset will be
released to the public.
- Abstract(参考訳): 製品属性の価値は、カスタマサービスロボット、製品レコメンデーション、製品検索など、多くのeコマースシナリオにおいて不可欠です。
現実の世界では、製品の属性値は通常不完全であり、時間とともに変化するため、実用的な応用を著しく妨げている。
本稿では,商品の属性を共同で予測し,製品画像の助けを借りてテキストによる製品記述から価値を抽出するマルチモーダル手法を提案する。
製品属性と価値は高い相関関係にあり、例えば、製品属性が与えられることを条件に値を抽出するのが容易である。
そこで我々は属性と値の相互作用に向け,属性予測と値抽出タスクを複数の側面から共同でモデル化する。
さらに、製品イメージは、異なる製品属性と値のタスクに異なる影響を与えます。
そこで,製品画像から有用な視覚情報を選択的に抽出し,モデルを強化する。
本研究では,87,194のインスタンスを含むマルチモーダル製品属性値データセットに注釈を付けるとともに,属性と値の関係を明示的にモデル化することで,それらの対応性を確立し,視覚的製品情報を選択的に活用できることを実証する。
私たちのコードとデータセットは一般公開されます。
関連論文リスト
- Using LLMs for the Extraction and Normalization of Product Attribute
Values [51.45146101802871]
本稿では,大型言語モデル(LLM)を用いて,製品タイトルや製品記述から属性値を抽出し,正規化する可能性について検討する。
実験の結果, GPT-4はPLMに基づく抽出法を10%上回り, F1スコア91%を達成した。
論文 参考訳(メタデータ) (2024-03-04T15:39:59Z) - Enhanced E-Commerce Attribute Extraction: Innovating with Decorative
Relation Correction and LLAMA 2.0-Based Annotation [4.81846973621209]
本稿では,分類のためのBERT,属性値抽出のための条件付きランダムフィールド(CRF)層,データアノテーションのための大規模言語モデル(LLM)を統合した先駆的フレームワークを提案する。
提案手法は, CRFのシーケンス復号技術と相乗化したBERTの頑健な表現学習を利用して, 属性値の同定と抽出を行う。
私たちの方法論は、Walmart、BestBuyのEコマースNERデータセット、CoNLLデータセットなど、さまざまなデータセットで厳格に検証されています。
論文 参考訳(メタデータ) (2023-12-09T08:26:30Z) - AE-smnsMLC: Multi-Label Classification with Semantic Matching and
Negative Label Sampling for Product Attribute Value Extraction [42.79022954630978]
商品属性値抽出は、製品検索やレコメンデーションなどのeコマースにおける多くの現実世界アプリケーションにおいて重要な役割を果たす。
以前の方法では、製品テキスト内の値の位置にもっとアノテーションを必要とするシーケンスラベリングタスクとして扱われていた。
属性値抽出のためのセマンティックマッチングと負ラベルサンプリングを用いた分類モデルを提案する。
論文 参考訳(メタデータ) (2023-10-11T02:22:28Z) - MMAPS: End-to-End Multi-Grained Multi-Modal Attribute-Aware Product
Summarization [93.5217515566437]
マルチモーダル製品要約(MPS: Multi-modal Product Summarization)は、商品の特徴を強調して顧客の購入意欲を高めることを目的としている。
既存のMPS手法は有望な結果をもたらすが、それでもエンドツーエンドの製品要約は欠如している。
本稿では,eコマースにおける高品質な製品要約を生成するために,エンド・ツー・エンドのマルチモーダル属性対応製品要約手法(MMAPS)を提案する。
論文 参考訳(メタデータ) (2023-08-22T11:00:09Z) - Product Information Extraction using ChatGPT [69.12244027050454]
本稿では,製品記述から属性/値対を抽出するChatGPTの可能性について検討する。
以上の結果から,ChatGPTは事前学習した言語モデルに類似した性能を達成できるが,微調整を行うにはトレーニングデータや計算処理がはるかに少ないことが示唆された。
論文 参考訳(メタデータ) (2023-06-23T09:30:01Z) - AMELI: Enhancing Multimodal Entity Linking with Fine-Grained Attributes [22.158388220889865]
本稿では属性認識型マルチモーダル・エンティティリンクを提案する。
目標は、マルチモーダルな知識ベースから対応する対象エンティティを予測することである。
本研究を支援するために,18,472のレビューと35,598の製品からなる大規模データセットAMELIを構築した。
論文 参考訳(メタデータ) (2023-05-24T05:01:48Z) - OA-Mine: Open-World Attribute Mining for E-Commerce Products with Weak
Supervision [93.26737878221073]
オープンワールド環境における属性マイニングの問題点を考察し,新しい属性とその値の抽出を行う。
本稿では、まず属性値候補を生成し、次にそれらを属性のクラスタにグループ化する、原則化されたフレームワークを提案する。
我々のモデルは強いベースラインをはるかに上回り、目に見えない属性や製品タイプに一般化することができる。
論文 参考訳(メタデータ) (2022-04-29T04:16:04Z) - MAVE: A Product Dataset for Multi-source Attribute Value Extraction [10.429320377835241]
製品属性値の抽出をより容易にするための新しいデータセットであるMAVEを紹介する。
MAVEはAmazonページから220万の商品のキュレートされたセットで構成され、1257のユニークなカテゴリに300万の属性値アノテーションがある。
マルチソース製品情報から属性値を効果的に抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T06:48:31Z) - PAM: Understanding Product Images in Cross Product Category Attribute
Extraction [40.332066960433245]
この研究は、属性抽出に様々なモダリティを完全に活用するより包括的なフレームワークを提案する。
視覚的質問応答における最近の研究に触発されて,製品テキスト,光学的文字認識(OCR)トークン,および製品画像から検出された視覚オブジェクトの表現を融合するために,トランスフォーマーに基づくシーケンスモデルを用いている。
フレームワークはさらに拡張されており、複数の製品カテゴリにまたがる属性値を単一のモデルで抽出することができる。
論文 参考訳(メタデータ) (2021-06-08T18:30:17Z) - AdaTag: Multi-Attribute Value Extraction from Product Profiles with
Adaptive Decoding [55.89773725577615]
本稿ではアダプティブデコーディングを用いて属性抽出を行うAdaTagを提案する。
実世界のeコマースデータセットに関する我々の実験は、以前の方法よりも顕著に改善されたことを示している。
論文 参考訳(メタデータ) (2021-06-04T07:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。