論文の概要: Product Attribute Value Extraction using Large Language Models
- arxiv url: http://arxiv.org/abs/2310.12537v1
- Date: Thu, 19 Oct 2023 07:39:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 16:26:58.662049
- Title: Product Attribute Value Extraction using Large Language Models
- Title(参考訳): 大規模言語モデルを用いた製品属性値抽出
- Authors: Alexander Brinkmann, Roee Shraga, Christian Bizer
- Abstract要約: 最先端の属性/値抽出技術は、BERTのような事前訓練された言語モデル(PLM)に依存している。
本稿では,PLMに基づく属性/値抽出法に代わる,トレーニングデータ効率とロバストな代替手段として,大規模言語モデル(LLM)の可能性について検討する。
- 参考スコア(独自算出の注目度): 56.96665345570965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: E-commerce applications such as faceted product search or product comparison
are based on structured product descriptions like attribute/value pairs. The
vendors on e-commerce platforms do not provide structured product descriptions
but describe offers using titles or descriptions. To process such offers, it is
necessary to extract attribute/value pairs from textual product attributes.
State-of-the-art attribute/value extraction techniques rely on pre-trained
language models (PLMs), such as BERT. Two major drawbacks of these models for
attribute/value extraction are that (i) the models require significant amounts
of task-specific training data and (ii) the fine-tuned models face challenges
in generalizing to attribute values not included in the training data. This
paper explores the potential of large language models (LLMs) as a training
data-efficient and robust alternative to PLM-based attribute/value extraction
methods. We consider hosted LLMs, such as GPT-3.5 and GPT-4, as well as
open-source LLMs based on Llama2. We evaluate the models in a zero-shot
scenario and in a scenario where task-specific training data is available. In
the zero-shot scenario, we compare various prompt designs for representing
information about the target attributes of the extraction. In the scenario with
training data, we investigate (i) the provision of example attribute values,
(ii) the selection of in-context demonstrations, and (iii) the fine-tuning of
GPT-3.5. Our experiments show that GPT-4 achieves an average F1-score of 85% on
the two evaluation datasets while the best PLM-based techniques perform on
average 5% worse using the same amount of training data. GPT-4 achieves a 10%
higher F1-score than the best open-source LLM. The fine-tuned GPT-3.5 model
reaches a similar performance as GPT-4 while being significantly more
cost-efficient.
- Abstract(参考訳): ファセット商品検索や製品比較のようなeコマースアプリケーションは、属性/バリューペアのような構造化された製品記述に基づいている。
eコマースプラットフォームのベンダーは、構造化された製品説明を提供するのではなく、タイトルや説明を使って提供します。
このような提供を処理するためには、テキスト製品属性から属性/値ペアを抽出する必要がある。
最先端属性/値抽出技術は、BERTのような事前訓練された言語モデル(PLM)に依存している。
属性/値抽出のためのこれらのモデルの2つの大きな欠点は
一 相当量のタスク特化訓練データを必要とするモデル
(2)微調整モデルでは,トレーニングデータに含まれない属性値の一般化が課題となる。
本稿では,PLMに基づく属性/値抽出法に代わる,データ効率のトレーニングとして,大規模言語モデル(LLM)の可能性について検討する。
GPT-3.5 や GPT-4 などの LLM や Llama2 をベースとしたオープンソース LLM も検討している。
我々は、ゼロショットシナリオとタスク固有のトレーニングデータが利用可能なシナリオでモデルを評価する。
ゼロショットシナリオでは,抽出対象属性に関する情報を表現するための様々なプロンプト設計を比較する。
トレーニングデータを用いたシナリオで、我々は調査する
(i)例属性値の提供。
(ii)文脈内デモの選択、及び
三 GPT-3.5の微調整
実験の結果、GPT-4は2つの評価データセットの平均F1スコアを85%達成し、最高のPLMベースの手法は、同じ量のトレーニングデータを用いて平均5%悪化することがわかった。
GPT-4は、最高のオープンソースLLMよりも10%高いF1スコアを達成する。
微調整のGPT-3.5モデルはGPT-4と同等の性能を保ちながら、コスト効率は大幅に向上した。
関連論文リスト
- Exploring Large Language Models for Product Attribute Value Identification [25.890927969633196]
製品属性値識別(PAVI)は、製品情報から属性とその値を自動的に識別する。
既存の手法は、BARTやT5のような微調整済みの言語モデルに依存している。
本稿では, LLaMA や Mistral などの大規模言語モデル (LLM) をデータ効率・ロバストなPAVI 代替品として検討する。
論文 参考訳(メタデータ) (2024-09-19T12:09:33Z) - Using LLMs for the Extraction and Normalization of Product Attribute Values [47.098255866050835]
本稿では,大規模言語モデル(LLM)を用いて,製品タイトルや記述から属性値の抽出と正規化を行う可能性について検討する。
実験のために、Web Data Commons - Product Attribute Value extract (WDC-PAVE)ベンチマークデータセットを紹介します。
論文 参考訳(メタデータ) (2024-03-04T15:39:59Z) - JPAVE: A Generation and Classification-based Model for Joint Product
Attribute Prediction and Value Extraction [59.94977231327573]
JPAVEと呼ばれる値生成/分類と属性予測を備えたマルチタスク学習モデルを提案する。
我々のモデルの2つの変種は、オープンワールドとクローズドワールドのシナリオのために設計されている。
公開データセットにおける実験結果は,強いベースラインと比較して,我々のモデルが優れていることを示す。
論文 参考訳(メタデータ) (2023-11-07T18:36:16Z) - AE-smnsMLC: Multi-Label Classification with Semantic Matching and
Negative Label Sampling for Product Attribute Value Extraction [42.79022954630978]
商品属性値抽出は、製品検索やレコメンデーションなどのeコマースにおける多くの現実世界アプリケーションにおいて重要な役割を果たす。
以前の方法では、製品テキスト内の値の位置にもっとアノテーションを必要とするシーケンスラベリングタスクとして扱われていた。
属性値抽出のためのセマンティックマッチングと負ラベルサンプリングを用いた分類モデルを提案する。
論文 参考訳(メタデータ) (2023-10-11T02:22:28Z) - Product Information Extraction using ChatGPT [69.12244027050454]
本稿では,製品記述から属性/値対を抽出するChatGPTの可能性について検討する。
以上の結果から,ChatGPTは事前学習した言語モデルに類似した性能を達成できるが,微調整を行うにはトレーニングデータや計算処理がはるかに少ないことが示唆された。
論文 参考訳(メタデータ) (2023-06-23T09:30:01Z) - A Unified Generative Approach to Product Attribute-Value Identification [6.752749933406399]
本稿では,製品属性値識別(PAVI)タスクに対する生成的アプローチについて検討する。
我々は、予め訓練された生成モデルT5を微調整し、与えられた製品テキストから属性値対のセットをターゲットシーケンスとしてデコードする。
提案手法が既存の抽出法や分類法よりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2023-06-09T00:33:30Z) - AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators [98.11286353828525]
GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
本稿では,2段階のアプローチを取り入れたAnnoLLMを提案する。
我々はAnnoLLMを用いた対話型情報検索データセットを構築した。
論文 参考訳(メタデータ) (2023-03-29T17:03:21Z) - What Makes Good In-Context Examples for GPT-$3$? [101.99751777056314]
GPT-$3$はNLPタスクの広い範囲でその優れた性能のために多くの注目を集めています。
その成功にもかかわらず、我々はGPT-$3$の実証結果が文脈内例の選択に大きく依存していることを発見した。
本研究では,文脈内事例を適切に選択するためのより効果的な戦略が存在するかを検討する。
論文 参考訳(メタデータ) (2021-01-17T23:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。