論文の概要: LLaMA-E: Empowering E-commerce Authoring with Multi-Aspect Instruction
Following
- arxiv url: http://arxiv.org/abs/2308.04913v1
- Date: Wed, 9 Aug 2023 12:26:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 13:41:20.208533
- Title: LLaMA-E: Empowering E-commerce Authoring with Multi-Aspect Instruction
Following
- Title(参考訳): LLaMA-E: マルチアスペクトインストラクションによるEコマースオーサリングの強化
- Authors: Kaize Shi, Xueyao Sun, Dingxian Wang, Yinlin Fu, Guandong Xu, Qing Li
- Abstract要約: 本稿では,多様なeコマースオーサリングタスクに着目した,統一的でカスタマイズされた命令フォロー言語モデルであるLLaMA-Eを提案する。
GPT-3.5は、様々なスケールでLLaMA-Eモデルのトレーニングセットを形成するためにシード命令を拡張する教師モデルとして導入された。
- 参考スコア(独自算出の注目度): 13.05587396825279
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: E-commerce authoring involves creating attractive, abundant, and targeted
promotional content to drive product sales. The emergence of large language
models (LLMs) introduces an innovative paradigm, offering a unified solution to
address various authoring tasks within this scenario. However, mainstream LLMs
trained on general corpora with common sense knowledge reveal limitations in
fitting complex and personalized features unique to e-commerce products and
customers. Furthermore, LLMs like GPT-3.5 necessitate remote accessibility,
raising concerns about safeguarding voluminous customer privacy data during
transmission. This paper proposes the LLaMA-E, the unified and customized
instruction-following language models focusing on diverse e-commerce authoring
tasks. Specifically, the domain experts create the seed instruction set from
the tasks of ads generation, query-enhanced product title rewriting, product
classification, purchase intent speculation, and general Q&A. These tasks
enable the models to comprehensively understand precise e-commerce authoring
knowledge by interleaving features covering typical service aspects of
customers, sellers, and platforms. The GPT-3.5 is introduced as a teacher
model, which expands the seed instructions to form a training set for the
LLaMA-E models with various scales. The experimental results show that the
proposed LLaMA-E models achieve state-of-the-art results in quantitative and
qualitative evaluations, also exhibiting the advantage in zero-shot scenes. To
the best of our knowledge, this study is the first to serve the LLMs to
specific e-commerce authoring scenarios.
- Abstract(参考訳): eコマースのオーサリングは、製品販売を促進するために魅力的な、豊富な、ターゲットとするプロモーションコンテンツを作成することを含む。
大規模言語モデル(LLM)の出現は革新的なパラダイムを導入し、このシナリオにおける様々なオーサリングタスクに対処するための統一されたソリューションを提供する。
しかし,一般コーパスで訓練されたLLMは,電子商取引製品や顧客特有の,複雑でパーソナライズされた機能に適合する際の限界を明らかにする。
さらに、GPT-3.5のようなLCMはリモートアクセシビリティを必要としており、送信中に膨大な顧客プライバシデータの保護に関する懸念が高まっている。
本稿では,多様なeコマースオーサリングタスクに着目した,統一的でカスタマイズされた命令フォロー言語モデルであるLLaMA-Eを提案する。
具体的には、ドメインの専門家は、広告生成、クエリ強化された製品タイトル書き換え、製品分類、購入意図の推測、一般的なQ&Aといったタスクからシード命令セットを作成する。
これらのタスクにより、モデルが顧客、売り手、プラットフォームの典型的なサービス側面をカバーする機能をインターリーブすることで、正確なEコマースオーサリング知識を包括的に理解することができる。
gpt-3.5は、シードインストラクションを拡張してラマエモデルのトレーニングセットを形成する教師モデルとして導入されている。
実験結果から,提案するラマ-eモデルは定量的・質的評価を行い,ゼロショットシーンにおいても有利性を示した。
我々の知る限りでは、この研究はLLMを特定のeコマースオーサリングシナリオに初めて提供するものである。
関連論文リスト
- Automating Customer Needs Analysis: A Comparative Study of Large Language Models in the Travel Industry [2.4244694855867275]
大規模言語モデル(LLM)は、大量のテキストデータから貴重な洞察を抽出するための強力なツールとして登場した。
本研究では,TripAdvisor 投稿から旅行客のニーズを抽出するための LLM の比較分析を行った。
特にMistral 7Bは,大規模クローズドモデルに匹敵する性能を示した。
論文 参考訳(メタデータ) (2024-04-27T18:28:10Z) - BLADE: Enhancing Black-box Large Language Models with Small Domain-Specific Models [56.89958793648104]
大規模言語モデル(LLM)は多用途であり、多様なタスクに対処することができる。
従来のアプローチでは、ドメイン固有のデータによる継続的な事前トレーニングを行うか、一般的なLLMをサポートするために検索拡張を採用する。
BLADEと呼ばれる新しいフレームワークを提案する。このフレームワークは、小さなDomain-spEcificモデルでブラックボックスのLArge言語モデルを拡張する。
論文 参考訳(メタデータ) (2024-03-27T08:57:21Z) - eCeLLM: Generalizing Large Language Models for E-commerce from
Large-scale, High-quality Instruction Data [13.835166230097231]
電子商取引のための,最初のオープンソース,大規模,高品質なベンチマークインストラクションデータセットであるECInstructを構築した。
我々は,eコマース LLM のシリーズである eCeLLM を開発した。
eCeLLMは、目に見えない製品や目に見えない命令を含む、ドメイン外の設定に優れた一般化性を示す。
論文 参考訳(メタデータ) (2024-02-13T22:26:24Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - EcomGPT-CT: Continual Pre-training of E-commerce Large Language Models
with Semi-structured Data [67.8302955948861]
大規模コーパスで事前訓練された大規模言語モデル(LLM)は、様々なNLPタスクにおいて顕著な性能を示した。
これらのモデルを特定のドメインに適用しても、ドメイン知識の欠如など、大きな課題が生じる。
我々は、Eコマースドメインを例として用いたLLMのドメイン固有の継続事前学習に焦点を当てた。
論文 参考訳(メタデータ) (2023-12-25T11:31:47Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - Online Advertisements with LLMs: Opportunities and Challenges [51.96140910798771]
本稿では,オンライン広告システムにおけるLarge Language Models(LLM)の活用の可能性について検討する。
プライバシー、レイテンシ、信頼性、そしてそのようなシステムが満たさなければならないユーザや広告主の満足度など、基本的な要件を探求します。
論文 参考訳(メタデータ) (2023-11-11T02:13:32Z) - Leveraging Large Language Models for Enhanced Product Descriptions in
eCommerce [6.318353155416729]
本稿では,LAMA 2.0 7B言語モデルを用いた製品記述生成の自動化手法を提案する。
私たちはこのモデルを、最大のeコマースプラットフォームの1つであるWalmartの真正な製品記述のデータセットでトレーニングします。
以上の結果から,システムはスケーラブルであるだけでなく,製品記述作成に関わる人的負担を大幅に削減することが明らかとなった。
論文 参考訳(メタデータ) (2023-10-24T00:55:14Z) - EcomGPT: Instruction-tuning Large Language Models with Chain-of-Task
Tasks for E-commerce [68.72104414369635]
本稿では,約250万の命令データを持つ電子商取引指導データセットであるEcomInstructを提案する。
EcomGPTは、Eコマースタスクにおけるクロスデータセット/タスクの一般化という観点で、ChatGPTを上回っている。
論文 参考訳(メタデータ) (2023-08-14T06:49:53Z) - K-PLUG: Knowledge-injected Pre-trained Language Model for Natural
Language Understanding and Generation in E-Commerce [38.9878151656255]
K-PLUGは、エンコーダデコーダトランスフォーマーに基づく知識インジェクション型プリトレーニング言語モデルです。
ドメイン特化知識の学習を定式化する5つの自己指導型事前学習目標を提案する。
論文 参考訳(メタデータ) (2021-04-14T16:37:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。