論文の概要: LLaSA: Large Language and E-Commerce Shopping Assistant
- arxiv url: http://arxiv.org/abs/2408.02006v1
- Date: Sun, 4 Aug 2024 12:10:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 15:45:06.931668
- Title: LLaSA: Large Language and E-Commerce Shopping Assistant
- Title(参考訳): LLaSA: 大規模言語とEコマースショッピングアシスタント
- Authors: Shuo Zhang, Boci Peng, Xinping Zhao, Boren Hu, Yun Zhu, Yanjia Zeng, Xuming Hu,
- Abstract要約: EshopInstructと呼ばれる65,000のサンプルと多様なタスクからなる命令データセットを作成します。
我々のデータセットの命令チューニングを通じて、LLaSAという名前のアシスタントは、全能アシスタントとして機能する可能性を示す。
Amazon KDD Cup 2024 Challengeでは,提案手法であるLLaSAがShopBenchで3位にランクインした。
- 参考スコア(独自算出の注目度): 17.53318263751155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The e-commerce platform has evolved rapidly due to its widespread popularity and convenience. Developing an e-commerce shopping assistant for customers is crucial to aiding them in quickly finding desired products and recommending precisely what they need. However, most previous shopping assistants face two main problems: (1) task-specificity, which necessitates the development of different models for various tasks, thereby increasing development costs and limiting effectiveness; and (2) poor generalization, where the trained model performs inadequately on up-to-date products. To resolve these issues, we employ Large Language Models (LLMs) to construct an omnipotent assistant, leveraging their adeptness at handling multiple tasks and their superior generalization capability. Nonetheless, LLMs lack inherent knowledge of e-commerce concepts. To address this, we create an instruction dataset comprising 65,000 samples and diverse tasks, termed as EshopInstruct. Through instruction tuning on our dataset, the assistant, named LLaSA, demonstrates the potential to function as an omnipotent assistant. Additionally, we propose various inference optimization strategies to enhance performance with limited inference resources. In the Amazon KDD Cup 2024 Challenge, our proposed method, LLaSA, achieved an overall ranking of 3rd place on ShopBench, including 57 tasks and approximately 20,000 questions, and we secured top-5 rankings in each track, especially in track4, where we achieved the best performance result among all student teams. Our extensive practices fully demonstrate that LLMs possess the great potential to be competent e-commerce shopping assistants.
- Abstract(参考訳): eコマースプラットフォームは、その普及と利便性のために急速に進化している。
顧客のためのeコマースショッピングアシスタントの開発は、彼らが望む製品を素早く見つけ出し、彼らが必要とするものを正確に推奨するのを助けるために不可欠だ。
しかし,従来のショッピングアシスタントでは,(1)様々なタスクのための異なるモデルの開発を必要とし,開発コストを増大させ,有効性を制限するタスク特異性,(2)訓練されたモデルが最新の製品で不適切な動作を行うような一般化の不足,という2つの問題に直面している。
これらの問題を解決するため、我々はLarge Language Models (LLMs) を用いて全能アシスタントを構築する。
それでもLLMにはeコマースの概念に関する固有の知識が欠けている。
これを解決するために、EshopInstructと呼ばれる65,000のサンプルと多様なタスクからなる命令データセットを作成します。
我々のデータセットの命令チューニングを通じて、LLaSAという名前のアシスタントは、全能アシスタントとして機能する可能性を示す。
さらに,限られた推論資源による性能向上のための様々な推論最適化手法を提案する。
Amazon KDD Cup 2024 Challengeでは、提案手法であるLLaSAが、57のタスクと約20,000の質問を含む、ShopBenchで3位にランクインしました。
当社の広範な実践は、LCMが優れたeコマースショッピングアシスタントになる大きな可能性を持っていることを十分に証明しています。
関連論文リスト
- Number Cookbook: Number Understanding of Language Models and How to Improve It [63.9542740221096]
大規模言語モデル(LLM)は、基本的な数値的な理解と処理において予期せぬ誤りを犯しながら、複雑な推論タスクの増大を解決することができる。
本稿では,LLMの数値理解と処理能力(NUPA)について包括的に検討する。
論文 参考訳(メタデータ) (2024-11-06T08:59:44Z) - Shopping MMLU: A Massive Multi-Task Online Shopping Benchmark for Large Language Models [95.34001906930152]
大規模言語モデル(LLM)は、タスク固有のエンジニアリング作業を緩和することによって、オンラインショッピングを変革する可能性がある。
実世界のAmazonデータから得られた多様なマルチタスクオンラインショッピングベンチマークであるShopping MMLUを提案する。
ショッピングMMLUは、概念理解、知識推論、ユーザの行動アライメント、多言語性という4つの主要なショッピングスキルをカバーする57のタスクで構成されている。
論文 参考訳(メタデータ) (2024-10-28T05:25:47Z) - SUPER: Evaluating Agents on Setting Up and Executing Tasks from Research Repositories [55.161075901665946]
Superは、機械学習(ML)と自然言語処理(NLP)の研究リポジトリを扱う研究者が直面する現実的な課題を捉えることを目的としている。
本ベンチマークでは,注釈付きエキスパートソリューションを用いたエンドツーエンド問題45,特定の課題に焦点をあてたエキスパートソリューションから導いた152,大規模開発のための602の問題を自動生成する。
我々は、最先端のアプローチが、最良のモデル(GPT-4o)でこれらの問題を解決するのに苦労していることを示し、エンド・ツー・エンドの16.3%と46.1%のシナリオを解決した。
論文 参考訳(メタデータ) (2024-09-11T17:37:48Z) - SEQ+MD: Learning Multi-Task as a SEQuence with Multi-Distribution Data [5.069855142454979]
マルチタスク学習(MTL)のための逐次学習と,マルチディストリビューション入力のための特徴生成領域マスクを統合したSEQ+MDフレームワークを提案する。
クリック性能を中立に保ちながら、付加品と購入を含む高価値エンゲージメントの増大を示す。
我々のマルチリージョン学習モジュールは"plug-and-play"であり、他のMTLアプリケーションに容易に適応できる。
論文 参考訳(メタデータ) (2024-08-23T20:14:27Z) - EC-Guide: A Comprehensive E-Commerce Guide for Instruction Tuning and Quantization [7.982538359035973]
EC-Guide hrefhttps://github.com/fzp0424/EC-Guide-KDDUP-2024は、LCMのチューニングと量子化のための総合的な電子商取引ガイドである。
私たちのソリューションはモデルに依存しないため、大規模なシステムにまたがる効果的なスケーラビリティを実現しています。
論文 参考訳(メタデータ) (2024-08-06T05:50:41Z) - Winning Amazon KDD Cup'24 [0.6967835043237027]
課題は、オンラインショッピングの分野における質問に答える便利なアシスタントを作ることだった。
コンペティションには57の多様なタスクが含まれ、5つの異なるタスクタイプと4つの異なるトラックにまたがる。
私たちのソリューションは、トラック毎にひとつのモデルです。トレーニングデータセットに基づいて、Qwen2-72B-インストラクションを微調整します。
論文 参考訳(メタデータ) (2024-08-05T14:40:04Z) - BigCodeBench: Benchmarking Code Generation with Diverse Function Calls and Complex Instructions [72.56339136017759]
BigCodeBenchは、大規模言語モデル(LLM)に対して、139のライブラリと7つのドメインから1140のきめ細かいタスクに対して、複数の関数呼び出しをツールとして呼び出すためのベンチマークである。
評価の結果,LLMは機能コールを正確に使用するための複雑な指示に従うことができず,スコアは最大60%,人的性能は97%と極めて低いことがわかった。
そこで本研究では,BigCodeBench-Instructという自然言語指向の変種を提案する。
論文 参考訳(メタデータ) (2024-06-22T15:52:04Z) - Navigating the Labyrinth: Evaluating and Enhancing LLMs' Ability to Reason About Search Problems [59.72548591120689]
我々は,11種類の検索問題を含む新しいベンチマークであるSearchBenchを紹介する。
もっとも先進的なLCMでさえ、これらの問題をエンドツーエンドのテキストで解決することができないことを示す。
LLMにその問題を解決するコードを生成するように指示することは助けになるが、GPT4のパフォーマンスは11.7%向上した。
論文 参考訳(メタデータ) (2024-06-18T00:44:58Z) - EcomGPT: Instruction-tuning Large Language Models with Chain-of-Task
Tasks for E-commerce [68.72104414369635]
本稿では,約250万の命令データを持つ電子商取引指導データセットであるEcomInstructを提案する。
EcomGPTは、Eコマースタスクにおけるクロスデータセット/タスクの一般化という観点で、ChatGPTを上回っている。
論文 参考訳(メタデータ) (2023-08-14T06:49:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。