論文の概要: InstructPTS: Instruction-Tuning LLMs for Product Title Summarization
- arxiv url: http://arxiv.org/abs/2310.16361v1
- Date: Wed, 25 Oct 2023 04:56:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 16:47:53.566648
- Title: InstructPTS: Instruction-Tuning LLMs for Product Title Summarization
- Title(参考訳): instructpts: 製品タイトル要約のための命令チューニングllm
- Authors: Besnik Fetahu, Zhiyu Chen, Oleg Rokhlenko, Shervin Malmasi
- Abstract要約: InstructPTSはProduct Title Summarization(PTS)タスクの制御可能なアプローチである
提案手法は,新しい指導的微調整戦略を用いて学習し,様々な基準に従って製品タイトルを要約することができる。
提案手法は,14点以上のBLEU点と8点以上のROUGE点を改良し,より正確な製品名要約を生成する。
- 参考スコア(独自算出の注目度): 38.87781022894529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: E-commerce product catalogs contain billions of items. Most products have
lengthy titles, as sellers pack them with product attributes to improve
retrieval, and highlight key product aspects. This results in a gap between
such unnatural products titles, and how customers refer to them. It also limits
how e-commerce stores can use these seller-provided titles for recommendation,
QA, or review summarization.
Inspired by recent work on instruction-tuned LLMs, we present InstructPTS, a
controllable approach for the task of Product Title Summarization (PTS).
Trained using a novel instruction fine-tuning strategy, our approach is able to
summarize product titles according to various criteria (e.g. number of words in
a summary, inclusion of specific phrases, etc.). Extensive evaluation on a
real-world e-commerce catalog shows that compared to simple fine-tuning of
LLMs, our proposed approach can generate more accurate product name summaries,
with an improvement of over 14 and 8 BLEU and ROUGE points, respectively.
- Abstract(参考訳): Eコマース製品カタログには何十億ものアイテムが含まれている。
ほとんどの製品には長いタイトルがあり、売り手は検索を改善するために製品属性を詰め込み、重要な製品側面を強調する。
これにより、このような不自然な製品タイトルと、顧客がそれらを参照する方法のギャップが生じる。
また、eコマースストアは、レコメンデーションやQA、レビューの要約のために、これらの売り手が提供するタイトルを利用できる。
命令調整llmに関する最近の研究に触発されて,製品タイトル要約(pts)タスクの制御可能なアプローチであるinstructptsを提案する。
新しい指示の微調整戦略を使って訓練されたこのアプローチは、様々な基準(要約中の単語数、特定のフレーズの包含など)に従って製品タイトルを要約することができる。
実世界のeコマースカタログの広範な評価は、llmの単純な微調整と比較して、提案手法がより正確な製品名要約を生成できることを示し、それぞれ14 bleu と 8 rouge point を改良した。
関連論文リスト
- Generating Attractive and Authentic Copywriting from Customer Reviews [7.159225692930055]
本稿では,顧客のレビューに基づいて,商品の実践的体験を手軽に提供し,コピーライティングを生成することを提案する。
そこで我々は,強化学習により強化されたシーケンス・ツー・シーケンス(Sequence-to-Sequence)フレームワークを開発した。
我々のフレームワークは、LLaMA-2-chat-7BやGPT-3.5など、既存のベースラインやゼロショットの大規模言語モデルよりも優れています。
論文 参考訳(メタデータ) (2024-04-22T06:33:28Z) - Using LLMs for the Extraction and Normalization of Product Attribute
Values [51.45146101802871]
本稿では,大型言語モデル(LLM)を用いて,製品タイトルや製品記述から属性値を抽出し,正規化する可能性について検討する。
実験の結果, GPT-4はPLMに基づく抽出法を10%上回り, F1スコア91%を達成した。
論文 参考訳(メタデータ) (2024-03-04T15:39:59Z) - LLM-Ensemble: Optimal Large Language Model Ensemble Method for
E-commerce Product Attribute Value Extraction [13.154269540872995]
大規模言語モデル(LLM)は多くの属性抽出タスクにおいて最先端の性能を示す。
属性値抽出のために異なるLLMの出力をアンサンブルするLLMアンサンブルと呼ばれる新しいアルゴリズムを提案する。
提案手法は理論的に最適であるだけでなく,効率的な計算,高速収束,安全な配置も保証できる。
論文 参考訳(メタデータ) (2024-02-29T23:03:19Z) - Product Attribute Value Extraction using Large Language Models [56.96665345570965]
事前学習言語モデル(PLM)に基づく最先端属性/値抽出手法は2つの欠点に直面している。
我々は,大規模言語モデル(LLM)を,既存の属性/値抽出法に代わる,より訓練的なデータ効率,より堅牢な代替手段として活用する可能性を探る。
論文 参考訳(メタデータ) (2023-10-19T07:39:00Z) - MMAPS: End-to-End Multi-Grained Multi-Modal Attribute-Aware Product
Summarization [93.5217515566437]
マルチモーダル製品要約(MPS: Multi-modal Product Summarization)は、商品の特徴を強調して顧客の購入意欲を高めることを目的としている。
既存のMPS手法は有望な結果をもたらすが、それでもエンドツーエンドの製品要約は欠如している。
本稿では,eコマースにおける高品質な製品要約を生成するために,エンド・ツー・エンドのマルチモーダル属性対応製品要約手法(MMAPS)を提案する。
論文 参考訳(メタデータ) (2023-08-22T11:00:09Z) - Multimodal Prompt Learning for Product Title Generation with Extremely
Limited Labels [66.54691023795097]
本稿では,ラベルが限定された新商品のタイトルを生成するためのプロンプトベースアプローチ,すなわちマルチモーダル・プロンプト学習フレームワークを提案する。
我々は、新しい製品の対応する特性と書体を維持するために、異なるモダリティから多モーダルなプロンプトのセットを構築する。
トレーニング用ラベル付きデータの完全化により,本手法は最先端の結果が得られる。
論文 参考訳(メタデータ) (2023-07-05T00:40:40Z) - Product Information Extraction using ChatGPT [69.12244027050454]
本稿では,製品記述から属性/値対を抽出するChatGPTの可能性について検討する。
以上の結果から,ChatGPTは事前学習した言語モデルに類似した性能を達成できるが,微調整を行うにはトレーニングデータや計算処理がはるかに少ないことが示唆された。
論文 参考訳(メタデータ) (2023-06-23T09:30:01Z) - CUSTOM: Aspect-Oriented Product Summarization for E-Commerce [33.148235036915885]
製品要約は、商品の説明を自動的に生成することを目的としています。
異なる製品面での顧客の好みを考えると、アスペクト指向のカスタマイズされた要約を生成するメリットがあるでしょう。
我々は,多様かつ制御可能な要約を異なる製品面に向けて生成するCUSTOMを提案する。
論文 参考訳(メタデータ) (2021-08-18T07:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。