論文の概要: Product Attribute Value Extraction using Large Language Models
- arxiv url: http://arxiv.org/abs/2310.12537v2
- Date: Fri, 26 Jan 2024 09:07:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 17:48:39.287784
- Title: Product Attribute Value Extraction using Large Language Models
- Title(参考訳): 大規模言語モデルを用いた製品属性値抽出
- Authors: Alexander Brinkmann, Roee Shraga, Christian Bizer
- Abstract要約: 事前学習言語モデル(PLM)に基づく最先端属性/値抽出手法は2つの欠点に直面している。
我々は,大規模言語モデル(LLM)を,既存の属性/値抽出法に代わる,より訓練的なデータ効率,より堅牢な代替手段として活用する可能性を探る。
- 参考スコア(独自算出の注目度): 56.96665345570965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: E-commerce platforms rely on structured product descriptions, in the form of
attribute/value pairs to enable features such as faceted product search and
product comparison. However, vendors on these platforms often provide
unstructured product descriptions consisting of a title and a textual
description. To process such offers, e-commerce platforms must extract
attribute/value pairs from the unstructured descriptions. State-of-the-art
attribute/value extraction methods based on pre-trained language models (PLMs),
such as BERT, face two drawbacks (i) the methods require significant amounts of
task-specific training data and (ii) the fine-tuned models have problems to
generalize to attribute values that were not part of the training data. We
explore the potential of using large language models (LLMs) as a more training
data-efficient and more robust alternative to existing attribute/value
extraction methods. We propose different prompt templates for instructing LLMs
about the target schema of the extraction, covering both zero-shot and few-shot
scenarios. In the zero-shot scenario, textual and JSON-based approaches for
representing information about the target attributes are compared. In the
scenario with training data, we investigate (i) the provision of example
attribute values, (ii) the selection of in-context demonstrations, (iii)
shuffled ensembling to prevent position bias, and (iv) fine-tuning the LLM. The
prompt templates are evaluated in combination with hosted LLMs, such as GPT-3.5
and GPT-4, and open-source LLMs based on Llama2 which can be run locally. The
best average F1-score of 86% was reached by GPT-4 using an ensemble of shuffled
prompts that combine attribute names, attribute descriptions, example values,
and demonstrations. Given the same amount of training data, this prompt/model
combination outperforms the best PLM baseline by an average of 6% F1.
- Abstract(参考訳): Eコマースプラットフォームは、ファセットされた製品検索や製品比較のような機能を実現するために、属性/バリューペアという形で構造化された製品記述に依存している。
しかし、これらのプラットフォーム上のベンダーは、タイトルとテキスト記述からなる非構造化の製品記述を提供することが多い。
このようなオファーを処理するために、Eコマースプラットフォームは、構造化されていない記述から属性/バリューペアを抽出する必要がある。
BERTのような事前学習言語モデル(PLM)に基づく最先端属性/値抽出手法は、2つの欠点に直面している
一 相当量のタスク特化訓練データを必要とする方法
(II) 微調整モデルには, トレーニングデータに含まれない属性値の一般化に問題がある。
我々は,大規模言語モデル(LLM)を既存の属性/値抽出法に代わる,より訓練的なデータ効率,堅牢な代替手段として活用する可能性を探る。
我々は,ゼロショットと少数ショットの両方のシナリオをカバーする,抽出対象のスキーマをllmに指示するための,異なるプロンプトテンプレートを提案する。
ゼロショットシナリオでは、ターゲット属性に関する情報を表現するためのテキストとJSONベースのアプローチが比較される。
トレーニングデータを用いたシナリオで、我々は調査する
(i)例属性値の提供。
(ii)文脈内デモの選択
(iii)位置バイアスを防止するためのシャッフルセンシング、及び
(4)LDMを微調整する。
プロンプトテンプレートは、GPT-3.5 や GPT-4 などのホスト LLM と組み合わせて評価され、Llama2 をベースとしたオープンソース LLM はローカルで実行できる。
86%の平均F1スコアは、属性名、属性記述、サンプル値、デモを組み合わせたシャッフルプロンプトのアンサンブルを使用してGPT-4に到達した。
同じトレーニングデータを与えられたこのプロンプト/モデルの組み合わせは、最高のPLMベースラインを平均6%F1で上回る。
関連論文リスト
- TACLR: A Scalable and Efficient Retrieval-based Method for Industrial Product Attribute Value Identification [19.911923049421137]
製品属性値識別(PAVI)の最初の検索手法であるTACLRを紹介する。
製品プロファイルと候補値を埋め込みに符号化し、アイテム埋め込みと類似性に基づいて値を取得することにより、情報検索タスクとしてPAVIを定式化する。
1)正規化された出力を生成しながら暗黙的およびOOD値を効果的に処理し、(2)数千のカテゴリ、数万の属性、および数百万の値にスケールし、(3)高負荷の産業シナリオに対する効率的な推論をサポートする。
論文 参考訳(メタデータ) (2025-01-07T14:45:30Z) - Self-Refinement Strategies for LLM-based Product Attribute Value Extraction [51.45146101802871]
本稿では,製品属性値抽出タスクに2つの自己補充手法を適用した。
実験の結果, 2つの自己補充技術は, 処理コストを大幅に増大させながら, 抽出性能を著しく向上させることができないことがわかった。
開発データを持つシナリオでは、ファインチューニングが最もパフォーマンスが高いのに対して、ファインチューニングの上昇コストは製品記述の量が増加するにつれてバランスがとれる。
論文 参考訳(メタデータ) (2025-01-02T12:55:27Z) - Exploring Large Language Models for Product Attribute Value Identification [25.890927969633196]
製品属性値識別(PAVI)は、製品情報から属性とその値を自動的に識別する。
既存の手法は、BARTやT5のような微調整済みの言語モデルに依存している。
本稿では, LLaMA や Mistral などの大規模言語モデル (LLM) をデータ効率・ロバストなPAVI 代替品として検討する。
論文 参考訳(メタデータ) (2024-09-19T12:09:33Z) - Using LLMs for the Extraction and Normalization of Product Attribute Values [47.098255866050835]
本稿では,大規模言語モデル(LLM)を用いて,製品タイトルや記述から属性値の抽出と正規化を行う可能性について検討する。
実験のために、Web Data Commons - Product Attribute Value extract (WDC-PAVE)ベンチマークデータセットを紹介します。
論文 参考訳(メタデータ) (2024-03-04T15:39:59Z) - JPAVE: A Generation and Classification-based Model for Joint Product
Attribute Prediction and Value Extraction [59.94977231327573]
JPAVEと呼ばれる値生成/分類と属性予測を備えたマルチタスク学習モデルを提案する。
我々のモデルの2つの変種は、オープンワールドとクローズドワールドのシナリオのために設計されている。
公開データセットにおける実験結果は,強いベースラインと比較して,我々のモデルが優れていることを示す。
論文 参考訳(メタデータ) (2023-11-07T18:36:16Z) - Product Information Extraction using ChatGPT [69.12244027050454]
本稿では,製品記述から属性/値対を抽出するChatGPTの可能性について検討する。
以上の結果から,ChatGPTは事前学習した言語モデルに類似した性能を達成できるが,微調整を行うにはトレーニングデータや計算処理がはるかに少ないことが示唆された。
論文 参考訳(メタデータ) (2023-06-23T09:30:01Z) - A Unified Generative Approach to Product Attribute-Value Identification [6.752749933406399]
本稿では,製品属性値識別(PAVI)タスクに対する生成的アプローチについて検討する。
我々は、予め訓練された生成モデルT5を微調整し、与えられた製品テキストから属性値対のセットをターゲットシーケンスとしてデコードする。
提案手法が既存の抽出法や分類法よりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2023-06-09T00:33:30Z) - What Makes Good In-Context Examples for GPT-$3$? [101.99751777056314]
GPT-$3$はNLPタスクの広い範囲でその優れた性能のために多くの注目を集めています。
その成功にもかかわらず、我々はGPT-$3$の実証結果が文脈内例の選択に大きく依存していることを発見した。
本研究では,文脈内事例を適切に選択するためのより効果的な戦略が存在するかを検討する。
論文 参考訳(メタデータ) (2021-01-17T23:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。