論文の概要: ExtractGPT: Exploring the Potential of Large Language Models for Product Attribute Value Extraction
- arxiv url: http://arxiv.org/abs/2310.12537v3
- Date: Mon, 2 Sep 2024 12:36:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-04 22:24:42.208694
- Title: ExtractGPT: Exploring the Potential of Large Language Models for Product Attribute Value Extraction
- Title(参考訳): ExtractGPT: 製品属性値抽出のための大規模言語モデルの可能性を探る
- Authors: Alexander Brinkmann, Roee Shraga, Christian Bizer,
- Abstract要約: BERTのような事前訓練された言語モデルに基づく最先端の値抽出手法は、2つの欠点に直面している。
タスク固有のトレーニングデータが必要であり、微調整されたモデルでは属性値の一般化に問題がある。
本稿では,大規模言語モデルを既存のAVE法に代わる,より訓練的なデータ効率,堅牢な代替手段として活用する可能性について検討する。
- 参考スコア(独自算出の注目度): 52.14681890859275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to facilitate features such as faceted product search and product comparison, e-commerce platforms require accurately structured product data, including precise attribute/value pairs. Vendors often times provide unstructured product descriptions consisting only of an offer title and a textual description. Consequently, extracting attribute values from titles and descriptions is vital for e-commerce platforms. State-of-the-art attribute value extraction methods based on pre-trained language models, such as BERT, face two drawbacks (i) the methods require significant amounts of task-specific training data and (ii) the fine-tuned models have problems with generalising to unseen attribute values that were not part of the training data. This paper explores the potential of using large language models as a more training data-efficient and more robust alternative to existing AVE methods. We propose prompt templates for describing the target attributes of the extraction to the LLM, covering both zero-shot and few-shot scenarios. In the zero-shot scenario, textual and JSON-based target schema representations of the attributes are compared. In the few-shot scenario, we investigate (i) the provision of example attribute values, (ii) the selection of in-context demonstrations, (iii) shuffled ensembling to prevent position bias, and (iv) fine-tuning the LLM. We evaluate the prompt templates in combination with hosted LLMs, such as GPT-3.5 and GPT-4, and open-source LLMs which can be run locally. We compare the performance of the LLMs to the PLM-based methods SU-OpenTag, AVEQA, and MAVEQA. The highest average F1-score of 86% was achieved by GPT-4. Llama-3-70B performs only 3% worse than GPT-4, making it a competitive open-source alternative. Given the same training data, this prompt/GPT-4 combination outperforms the best PLM baseline by an average of 6% F1-score.
- Abstract(参考訳): ファセット商品検索や製品比較などの機能を容易にするため、Eコマースプラットフォームは正確な属性/値のペアを含む、正確に構造化された製品データを必要とする。
ベンダーはしばしば、オファータイトルとテキスト記述のみからなる非構造化製品記述を提供する。
そのため、eコマースプラットフォームでは、タイトルや説明から属性値を抽出することが不可欠である。
BERTのような事前学習言語モデルに基づく最先端属性値抽出法は2つの欠点に直面している
一 相当量のタスク特化訓練データを必要とする方法
(II) 微調整モデルでは, トレーニングデータに含まれない属性値の非表示化が問題となる。
本稿では,大規模言語モデルを既存のAVE法に代わる,より訓練的なデータ効率,堅牢な代替手段として活用する可能性について検討する。
ゼロショットシナリオと少数ショットシナリオの両方をカバーする,LLMへの抽出対象属性を記述するためのプロンプトテンプレートを提案する。
ゼロショットシナリオでは、属性のテキストとJSONベースのターゲットスキーマ表現を比較します。
数発のシナリオで、我々は調査する
(i)例属性値の提供
(ii)文脈内デモンストレーションの選択
三 位置バイアスを防止するためのシャッフルアンサンブル
(4)LDMを微調整する。
GPT-3.5 や GPT-4 のようなホスト型 LLM と組み合わせてプロンプトテンプレートを評価し,ローカルで実行できるオープンソース LLM を評価した。
我々は,PLMの性能をSU-OpenTag,AVEQA,MAVEQAと比較した。
平均F1スコアは86%で、GPT-4で達成された。
Llama-3-70B は GPT-4 よりも 3% しか性能が良くないため、競合するオープンソース代替品となっている。
同じトレーニングデータから、このプロンプト/GPT-4の組み合わせは、平均6%のF1スコアで最高のPLMベースラインを上回っている。
関連論文リスト
- Exploring Large Language Models for Product Attribute Value Identification [25.890927969633196]
製品属性値識別(PAVI)は、製品情報から属性とその値を自動的に識別する。
既存の手法は、BARTやT5のような微調整済みの言語モデルに依存している。
本稿では, LLaMA や Mistral などの大規模言語モデル (LLM) をデータ効率・ロバストなPAVI 代替品として検討する。
論文 参考訳(メタデータ) (2024-09-19T12:09:33Z) - Using LLMs for the Extraction and Normalization of Product Attribute Values [47.098255866050835]
本稿では,大規模言語モデル(LLM)を用いて,製品タイトルや記述から属性値の抽出と正規化を行う可能性について検討する。
実験のために、Web Data Commons - Product Attribute Value extract (WDC-PAVE)ベンチマークデータセットを紹介します。
論文 参考訳(メタデータ) (2024-03-04T15:39:59Z) - JPAVE: A Generation and Classification-based Model for Joint Product
Attribute Prediction and Value Extraction [59.94977231327573]
JPAVEと呼ばれる値生成/分類と属性予測を備えたマルチタスク学習モデルを提案する。
我々のモデルの2つの変種は、オープンワールドとクローズドワールドのシナリオのために設計されている。
公開データセットにおける実験結果は,強いベースラインと比較して,我々のモデルが優れていることを示す。
論文 参考訳(メタデータ) (2023-11-07T18:36:16Z) - AE-smnsMLC: Multi-Label Classification with Semantic Matching and
Negative Label Sampling for Product Attribute Value Extraction [42.79022954630978]
商品属性値抽出は、製品検索やレコメンデーションなどのeコマースにおける多くの現実世界アプリケーションにおいて重要な役割を果たす。
以前の方法では、製品テキスト内の値の位置にもっとアノテーションを必要とするシーケンスラベリングタスクとして扱われていた。
属性値抽出のためのセマンティックマッチングと負ラベルサンプリングを用いた分類モデルを提案する。
論文 参考訳(メタデータ) (2023-10-11T02:22:28Z) - Product Information Extraction using ChatGPT [69.12244027050454]
本稿では,製品記述から属性/値対を抽出するChatGPTの可能性について検討する。
以上の結果から,ChatGPTは事前学習した言語モデルに類似した性能を達成できるが,微調整を行うにはトレーニングデータや計算処理がはるかに少ないことが示唆された。
論文 参考訳(メタデータ) (2023-06-23T09:30:01Z) - A Unified Generative Approach to Product Attribute-Value Identification [6.752749933406399]
本稿では,製品属性値識別(PAVI)タスクに対する生成的アプローチについて検討する。
我々は、予め訓練された生成モデルT5を微調整し、与えられた製品テキストから属性値対のセットをターゲットシーケンスとしてデコードする。
提案手法が既存の抽出法や分類法よりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2023-06-09T00:33:30Z) - AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators [98.11286353828525]
GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
本稿では,2段階のアプローチを取り入れたAnnoLLMを提案する。
我々はAnnoLLMを用いた対話型情報検索データセットを構築した。
論文 参考訳(メタデータ) (2023-03-29T17:03:21Z) - What Makes Good In-Context Examples for GPT-$3$? [101.99751777056314]
GPT-$3$はNLPタスクの広い範囲でその優れた性能のために多くの注目を集めています。
その成功にもかかわらず、我々はGPT-$3$の実証結果が文脈内例の選択に大きく依存していることを発見した。
本研究では,文脈内事例を適切に選択するためのより効果的な戦略が存在するかを検討する。
論文 参考訳(メタデータ) (2021-01-17T23:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。