論文の概要: Self-Refinement Strategies for LLM-based Product Attribute Value Extraction
- arxiv url: http://arxiv.org/abs/2501.01237v2
- Date: Fri, 14 Feb 2025 14:47:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 18:05:23.648711
- Title: Self-Refinement Strategies for LLM-based Product Attribute Value Extraction
- Title(参考訳): LLMを用いた製品属性値抽出のための自己精細戦略
- Authors: Alexander Brinkmann, Christian Bizer,
- Abstract要約: 本稿では,製品属性値抽出タスクに2つの自己補充手法を適用した。
実験の結果, 2つの自己補充技術は, 処理コストを大幅に増大させながら, 抽出性能を著しく向上させることができないことがわかった。
開発データを持つシナリオでは、ファインチューニングが最もパフォーマンスが高いのに対して、ファインチューニングの上昇コストは製品記述の量が増加するにつれてバランスがとれる。
- 参考スコア(独自算出の注目度): 51.45146101802871
- License:
- Abstract: Structured product data, in the form of attribute-value pairs, is essential for e-commerce platforms to support features such as faceted product search and attribute-based product comparison. However, vendors often provide unstructured product descriptions, making attribute value extraction necessary to ensure data consistency and usability. Large language models (LLMs) have demonstrated their potential for product attribute value extraction in few-shot scenarios. Recent research has shown that self-refinement techniques can improve the performance of LLMs on tasks such as code generation and text-to-SQL translation. For other tasks, the application of these techniques has resulted in increased costs due to processing additional tokens, without achieving any improvement in performance. This paper investigates applying two self-refinement techniques (error-based prompt rewriting and self-correction) to the product attribute value extraction task. The self-refinement techniques are evaluated across zero-shot, few-shot in-context learning, and fine-tuning scenarios using GPT-4o. The experiments show that both self-refinement techniques fail to significantly improve the extraction performance while substantially increasing processing costs. For scenarios with development data, fine-tuning yields the highest performance, while the ramp-up costs of fine-tuning are balanced out as the amount of product descriptions increases.
- Abstract(参考訳): 構造化された製品データは、属性と値のペアの形で、ファセットされた製品検索や属性ベースの製品比較のような機能をサポートするために、Eコマースプラットフォームにとって不可欠である。
しかし、ベンダーはしばしば非構造化の製品記述を提供し、データの一貫性とユーザビリティを確保するために属性値の抽出を必要とします。
大規模言語モデル(LLM)は、数ショットのシナリオで製品属性値の抽出の可能性を示した。
近年の研究では、コード生成やテキスト・トゥ・SQL翻訳といったタスクにおけるLCMの性能向上が実証されている。
他のタスクでは、これらのテクニックの適用は、パフォーマンスの改善を達成せずに、追加トークンの処理によるコストの増大をもたらしている。
本稿では,製品属性値抽出タスクに2つの自己補正手法(エラーベースのプロンプト書き換えと自己補正)を適用することを検討する。
GPT-4oを用いて、ゼロショット、少数ショットのインコンテキスト学習、微調整シナリオにまたがって自己補充技術を評価する。
実験により, 2つの自己補充技術は, 処理コストを大幅に増大させながら, 抽出性能を著しく向上させることができないことがわかった。
開発データを持つシナリオでは、ファインチューニングが最もパフォーマンスが高いのに対して、ファインチューニングの上昇コストは製品記述の量が増加するにつれてバランスがとれる。
関連論文リスト
- eC-Tab2Text: Aspect-Based Text Generation from e-Commerce Product Tables [6.384763560610077]
我々はeコマースの複雑さを捉えるために設計された新しいデータセットeC-Tab2Textを紹介する。
製品表からテキストを生成することに注力し、LCMが高品質で属性固有の製品レビューを作成できるようにする。
その結果,文脈的に正確なレビューを生成する上で,大幅な改善が見られた。
論文 参考訳(メタデータ) (2025-02-20T18:41:48Z) - TACLR: A Scalable and Efficient Retrieval-based Method for Industrial Product Attribute Value Identification [19.911923049421137]
製品属性値識別(PAVI)の最初の検索手法であるTACLRを紹介する。
製品プロファイルと候補値を埋め込みに符号化し、アイテム埋め込みと類似性に基づいて値を取得することにより、情報検索タスクとしてPAVIを定式化する。
1)正規化された出力を生成しながら暗黙的およびOOD値を効果的に処理し、(2)数千のカテゴリ、数万の属性、および数百万の値にスケールし、(3)高負荷の産業シナリオに対する効率的な推論をサポートする。
論文 参考訳(メタデータ) (2025-01-07T14:45:30Z) - AvaTaR: Optimizing LLM Agents for Tool Usage via Contrastive Reasoning [93.96463520716759]
大規模言語モデル(LLM)エージェントは、精度と幻覚を高めるために外部ツールと知識を活用する際、印象的な能力を示した。
本稿では、LLMエージェントを最適化して提供されたツールを効果的に活用し、与えられたタスクのパフォーマンスを向上させる新しい自動化フレームワークであるAvaTaRを紹介する。
論文 参考訳(メタデータ) (2024-06-17T04:20:02Z) - EIVEN: Efficient Implicit Attribute Value Extraction using Multimodal LLM [52.016009472409166]
EIVENは暗黙的な属性値抽出のためのデータおよびパラメータ効率の良い生成フレームワークである。
本稿では,モデル混同を減らすための新しい学習・比較手法を提案する。
実験の結果,EIVENは暗黙的属性値の抽出において既存の手法よりも有意に優れていることがわかった。
論文 参考訳(メタデータ) (2024-04-13T03:15:56Z) - LLM-DA: Data Augmentation via Large Language Models for Few-Shot Named
Entity Recognition [67.96794382040547]
$LLM-DA$は、数発のNERタスクのために、大きな言語モデル(LLM)に基づいた、新しいデータ拡張テクニックである。
提案手法では,14のコンテキスト書き換え戦略を採用し,同一タイプのエンティティ置換を設計し,ロバスト性を高めるためにノイズ注入を導入する。
論文 参考訳(メタデータ) (2024-02-22T14:19:56Z) - Enhanced E-Commerce Attribute Extraction: Innovating with Decorative
Relation Correction and LLAMA 2.0-Based Annotation [4.81846973621209]
本稿では,分類のためのBERT,属性値抽出のための条件付きランダムフィールド(CRF)層,データアノテーションのための大規模言語モデル(LLM)を統合した先駆的フレームワークを提案する。
提案手法は, CRFのシーケンス復号技術と相乗化したBERTの頑健な表現学習を利用して, 属性値の同定と抽出を行う。
私たちの方法論は、Walmart、BestBuyのEコマースNERデータセット、CoNLLデータセットなど、さまざまなデータセットで厳格に検証されています。
論文 参考訳(メタデータ) (2023-12-09T08:26:30Z) - ExtractGPT: Exploring the Potential of Large Language Models for Product Attribute Value Extraction [52.14681890859275]
電子商取引プラットフォームは、属性と値のペアという形で構造化された製品データを必要とする。
BERTベースの抽出法では,タスク固有の大量のトレーニングデータを必要とする。
本稿では,大規模言語モデル (LLM) を,より訓練的かつ堅牢な代替手段として活用することを検討する。
論文 参考訳(メタデータ) (2023-10-19T07:39:00Z) - Product Information Extraction using ChatGPT [69.12244027050454]
本稿では,製品記述から属性/値対を抽出するChatGPTの可能性について検討する。
以上の結果から,ChatGPTは事前学習した言語モデルに類似した性能を達成できるが,微調整を行うにはトレーニングデータや計算処理がはるかに少ないことが示唆された。
論文 参考訳(メタデータ) (2023-06-23T09:30:01Z) - A Unified Generative Approach to Product Attribute-Value Identification [6.752749933406399]
本稿では,製品属性値識別(PAVI)タスクに対する生成的アプローチについて検討する。
我々は、予め訓練された生成モデルT5を微調整し、与えられた製品テキストから属性値対のセットをターゲットシーケンスとしてデコードする。
提案手法が既存の抽出法や分類法よりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2023-06-09T00:33:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。