論文の概要: LLaMA-E: Empowering E-commerce Authoring with Multi-Aspect Instruction
Following
- arxiv url: http://arxiv.org/abs/2308.04913v1
- Date: Wed, 9 Aug 2023 12:26:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 13:41:20.208533
- Title: LLaMA-E: Empowering E-commerce Authoring with Multi-Aspect Instruction
Following
- Title(参考訳): LLaMA-E: マルチアスペクトインストラクションによるEコマースオーサリングの強化
- Authors: Kaize Shi, Xueyao Sun, Dingxian Wang, Yinlin Fu, Guandong Xu, Qing Li
- Abstract要約: 本稿では,多様なeコマースオーサリングタスクに着目した,統一的でカスタマイズされた命令フォロー言語モデルであるLLaMA-Eを提案する。
GPT-3.5は、様々なスケールでLLaMA-Eモデルのトレーニングセットを形成するためにシード命令を拡張する教師モデルとして導入された。
- 参考スコア(独自算出の注目度): 13.05587396825279
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: E-commerce authoring involves creating attractive, abundant, and targeted
promotional content to drive product sales. The emergence of large language
models (LLMs) introduces an innovative paradigm, offering a unified solution to
address various authoring tasks within this scenario. However, mainstream LLMs
trained on general corpora with common sense knowledge reveal limitations in
fitting complex and personalized features unique to e-commerce products and
customers. Furthermore, LLMs like GPT-3.5 necessitate remote accessibility,
raising concerns about safeguarding voluminous customer privacy data during
transmission. This paper proposes the LLaMA-E, the unified and customized
instruction-following language models focusing on diverse e-commerce authoring
tasks. Specifically, the domain experts create the seed instruction set from
the tasks of ads generation, query-enhanced product title rewriting, product
classification, purchase intent speculation, and general Q&A. These tasks
enable the models to comprehensively understand precise e-commerce authoring
knowledge by interleaving features covering typical service aspects of
customers, sellers, and platforms. The GPT-3.5 is introduced as a teacher
model, which expands the seed instructions to form a training set for the
LLaMA-E models with various scales. The experimental results show that the
proposed LLaMA-E models achieve state-of-the-art results in quantitative and
qualitative evaluations, also exhibiting the advantage in zero-shot scenes. To
the best of our knowledge, this study is the first to serve the LLMs to
specific e-commerce authoring scenarios.
- Abstract(参考訳): eコマースのオーサリングは、製品販売を促進するために魅力的な、豊富な、ターゲットとするプロモーションコンテンツを作成することを含む。
大規模言語モデル(LLM)の出現は革新的なパラダイムを導入し、このシナリオにおける様々なオーサリングタスクに対処するための統一されたソリューションを提供する。
しかし,一般コーパスで訓練されたLLMは,電子商取引製品や顧客特有の,複雑でパーソナライズされた機能に適合する際の限界を明らかにする。
さらに、GPT-3.5のようなLCMはリモートアクセシビリティを必要としており、送信中に膨大な顧客プライバシデータの保護に関する懸念が高まっている。
本稿では,多様なeコマースオーサリングタスクに着目した,統一的でカスタマイズされた命令フォロー言語モデルであるLLaMA-Eを提案する。
具体的には、ドメインの専門家は、広告生成、クエリ強化された製品タイトル書き換え、製品分類、購入意図の推測、一般的なQ&Aといったタスクからシード命令セットを作成する。
これらのタスクにより、モデルが顧客、売り手、プラットフォームの典型的なサービス側面をカバーする機能をインターリーブすることで、正確なEコマースオーサリング知識を包括的に理解することができる。
gpt-3.5は、シードインストラクションを拡張してラマエモデルのトレーニングセットを形成する教師モデルとして導入されている。
実験結果から,提案するラマ-eモデルは定量的・質的評価を行い,ゼロショットシーンにおいても有利性を示した。
我々の知る限りでは、この研究はLLMを特定のeコマースオーサリングシナリオに初めて提供するものである。
関連論文リスト
- EcomEdit: An Automated E-commerce Knowledge Editing Framework for Enhanced Product and Purchase Intention Understanding [42.41707796705922]
知識編集(KE)は、大規模言語モデル(LLM)における事実情報の修正と更新を目標とし、計算コストのかかる微調整なしに精度と関連性を保証する。
ECOMEDITは、Eコマース関連の知識とタスクに適した、Eコマースの知識自動編集フレームワークである。
論文 参考訳(メタデータ) (2024-10-18T08:31:22Z) - IntentionQA: A Benchmark for Evaluating Purchase Intention Comprehension Abilities of Language Models in E-commerce [71.37481473399559]
本稿では,eコマースにおけるLMの購入意図の理解を評価するためのベンチマークであるIntentionQAを提案する。
インテンションQAは、自動化パイプラインを使用して構築された3つの困難レベルにわたる4,360の慎重に計算された問題で構成されている。
人間の評価は、我々のベンチマークの高品質で低い偽陰性率を示す。
論文 参考訳(メタデータ) (2024-06-14T16:51:21Z) - A survey on fairness of large language models in e-commerce: progress, application, and challenge [8.746342211863332]
本調査では,eコマースにおける大規模言語モデル(LLM)の公平性について検討する。
進捗、アプリケーション、そして彼らが直面している課題を調べます。
この論文は、eコマースにおける公正性の課題を批判的に扱い、トレーニングデータとアルゴリズムのバイアスが不公平な結果をもたらすことを強調している。
論文 参考訳(メタデータ) (2024-05-15T23:25:19Z) - eCeLLM: Generalizing Large Language Models for E-commerce from Large-scale, High-quality Instruction Data [12.895762133464103]
電子商取引のための,最初のオープンソース,大規模,高品質なベンチマークインストラクションデータセットであるECInstructを構築した。
我々は,eコマース LLM のシリーズである eCeLLM を開発した。
eCeLLMは、目に見えない製品や目に見えない命令を含む、ドメイン外の設定に優れた一般化性を示す。
論文 参考訳(メタデータ) (2024-02-13T22:26:24Z) - EcomGPT-CT: Continual Pre-training of E-commerce Large Language Models
with Semi-structured Data [67.8302955948861]
大規模コーパスで事前訓練された大規模言語モデル(LLM)は、様々なNLPタスクにおいて顕著な性能を示した。
これらのモデルを特定のドメインに適用しても、ドメイン知識の欠如など、大きな課題が生じる。
我々は、Eコマースドメインを例として用いたLLMのドメイン固有の継続事前学習に焦点を当てた。
論文 参考訳(メタデータ) (2023-12-25T11:31:47Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - EcomGPT: Instruction-tuning Large Language Models with Chain-of-Task
Tasks for E-commerce [68.72104414369635]
本稿では,約250万の命令データを持つ電子商取引指導データセットであるEcomInstructを提案する。
EcomGPTは、Eコマースタスクにおけるクロスデータセット/タスクの一般化という観点で、ChatGPTを上回っている。
論文 参考訳(メタデータ) (2023-08-14T06:49:53Z) - Learning Instance-Level Representation for Large-Scale Multi-Modal
Pretraining in E-commerce [35.73830796500975]
本研究では, ECLIPと呼ばれるインスタンス中心のマルチモーダル事前学習パラダイムを提案する。
高価な手作業によるアノテーションに頼ることなく、モデルが望ましい製品インスタンスに集中できるようにするために、2つの特別な設定されたプレテキストタスクが提案されている。
ECLIPは、さまざまな下流タスクにおいて既存の手法をはるかに上回り、現実世界のEコマースアプリケーションへの強力な転送可能性を示している。
論文 参考訳(メタデータ) (2023-04-06T04:14:41Z) - Automatic Controllable Product Copywriting for E-Commerce [58.97059802658354]
我々は、JD.comのeコマースレコメンデーションプラットフォームに、Eコマースのプレフィックスベースのコントロール可能なコピーライティング生成をデプロイする。
提案するECCCGの有効性を検証する実験を行った。
本稿では,リアルタイムのJD.com電子商取引レコメンデーションプラットフォームに,ECCCGと連携するデプロイアーキテクチャを導入する。
論文 参考訳(メタデータ) (2022-06-21T04:18:52Z) - K-PLUG: Knowledge-injected Pre-trained Language Model for Natural
Language Understanding and Generation in E-Commerce [38.9878151656255]
K-PLUGは、エンコーダデコーダトランスフォーマーに基づく知識インジェクション型プリトレーニング言語モデルです。
ドメイン特化知識の学習を定式化する5つの自己指導型事前学習目標を提案する。
論文 参考訳(メタデータ) (2021-04-14T16:37:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。