論文の概要: Examples as the Prompt: A Scalable Approach for Efficient LLM Adaptation in E-Commerce
- arxiv url: http://arxiv.org/abs/2503.13518v1
- Date: Fri, 14 Mar 2025 18:22:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:18:03.706031
- Title: Examples as the Prompt: A Scalable Approach for Efficient LLM Adaptation in E-Commerce
- Title(参考訳): Promptの例:Eコマースにおける効率的なLLM適応のためのスケーラブルなアプローチ
- Authors: Jingying Zeng, Zhenwei Dai, Hui Liu, Samarth Varshney, Zhiji Liu, Chen Luo, Zhen Li, Qi He, Xianfeng Tang,
- Abstract要約: Prompt (EaP) はラベル付きデータを利用してプロンプトを強化するフレームワークである。
EaPは手作りのプロンプトに比べて同等またはそれ以上のパフォーマンスを達成する。
EaP_liteはプロンプトの自然言語コンポーネントをラベル付き例で置き換える。
- 参考スコア(独自算出の注目度): 14.436208311342261
- License:
- Abstract: Prompting LLMs offers an efficient way to guide output generation without explicit model training. In the e-commerce domain, prompting-based applications are widely used for tasks such as query understanding, recommender systems, and customer support. However, adapting LLMs to different tasks often requires extensive prompt engineering by domain experts, along with frequent updates to align with evolving business needs. Additionally, crafting fully unbiased natural language prompts remains a challenge for humans. To address these challenges, we propose a novel framework, Examples as the Prompt (EaP) which leverages labeled data to enhance prompts. Specifically, EaP automatically selects the most representative examples to maximize the few-shot capability of LLMs. It is efficient due to its unsupervised example selection and adaptive to potential data distribution shifts. We validate EaP on four real-world production use cases, demonstrating that it achieves comparable or even superior performance comparing to hand-crafted prompts designed by domain experts. Additionally, we introduce EaP_lite, which entirely replaces the natural language components of prompts with labeled examples. EaP_lite improves LLM inference speed by up to 70% without compromising performance. Latest online A/B test shows that using EaP and EaP_lite for data labeling can bring significant composite revenue gain by 0.06%.
- Abstract(参考訳): プロンプティング LLM は、明示的なモデルトレーニングなしで出力生成をガイドする効率的な方法を提供する。
eコマース領域では、クエリ理解やレコメンダシステム、顧客サポートといったタスクにプロンプトベースのアプリケーションが広く使われている。
しかし、異なるタスクにLLMを適用するには、しばしば、進化するビジネスニーズに合わせた頻繁な更新とともに、ドメインの専門家による広範なプロンプトエンジニアリングが必要である。
さらに、完全にバイアスのない自然言語のプロンプトを作ることは、人間にとって依然として課題である。
これらの課題に対処するために、ラベル付きデータを利用してプロンプトを強化する新しいフレームワークである Examples as the Prompt (EaP) を提案する。
具体的には、EaP は LLM の少数ショット能力を最大化するために、最も代表的な例を自動的に選択する。
教師なしのサンプル選択と潜在的なデータ分散シフトに適応するため、効率的である。
EaPを実世界の4つの実運用ユースケースで検証し、ドメインの専門家が設計した手作りのプロンプトと比較して、同等か、さらに優れたパフォーマンスを達成することを示す。
さらに、プロンプトの自然言語コンポーネントを完全にラベル付き例に置き換えるEaP_liteを導入します。
EaP_liteは、性能を損なうことなくLLM推論速度を最大70%向上させる。
最新のオンラインA/Bテストによると、データラベリングにEaPとEaP_liteを使用することで、複合的な収益が0.06%向上する可能性がある。
関連論文リスト
- Self-Supervised Prompt Optimization [16.06653117043314]
十分に設計されたプロンプトは、Large Language Model(LLM)推論能力の強化に不可欠である。
既存のプロンプト最適化手法は、地上の真実や人間による外部参照に大きく依存している。
本稿では,閉じたタスクとオープンなタスクの両方に効果的なプロンプトを発見する費用効率のよいフレームワークであるセルフ・スーパービジョン・プロンプト・最適化(SPO)を提案する。
論文 参考訳(メタデータ) (2025-02-07T17:45:16Z) - OptiSeq: Ordering Examples On-The-Fly for In-Context Learning [8.603219414567084]
OptiSeqは、最適なサンプル順序を効率的に決定する、純粋に推論時間、データセットなしの最適化手法である。
OptiSeqは複数のタスクで5.5~10.5ポイントの精度向上を実現している。
論文 参考訳(メタデータ) (2025-01-25T02:24:00Z) - QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - PAS: Data-Efficient Plug-and-Play Prompt Augmentation System [32.70608802492641]
大型言語モデル(LLM)は、プラグアンドプレイAIシステムへの需要を増大させた。
LLMベースのプラグアンドプレイ自動プロンプトエンジニアリング(APE)システムであるPASを提案する。
PAS は従来の APE モデルと比較して、平均 6.09 ポイントの改善を達成している。
PASは人間の評価に優れており、ユーザのためのプラグインとしての適合性を強調している。
論文 参考訳(メタデータ) (2024-07-08T15:25:33Z) - One Token Can Help! Learning Scalable and Pluggable Virtual Tokens for Retrieval-Augmented Large Language Models [67.49462724595445]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を改善するための有望な方法である。
本稿では,RAGのためのスケーラブルでプラガブルな仮想トークンを学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:44:54Z) - Prompt Optimization with EASE? Efficient Ordering-aware Automated Selection of Exemplars [66.823588073584]
大規模言語モデル(LLM)は、現実世界のアプリケーションで印象的な機能を示している。
これらの卓越した作品の品質は、パフォーマンスに大きな影響を与えます。
既存の方法は、先行注文がパフォーマンスに与える影響を適切に説明できない。
論文 参考訳(メタデータ) (2024-05-25T08:23:05Z) - Connecting Large Language Models with Evolutionary Algorithms Yields
Powerful Prompt Optimizers [70.18534453485849]
EvoPromptは離散的なプロンプト最適化のためのフレームワークである。
進化的アルゴリズム(EA)の概念は、優れた性能と高速収束を示すものである。
人為的なプロンプトと既存の方法で自動プロンプト生成を著しく上回っている。
論文 参考訳(メタデータ) (2023-09-15T16:50:09Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。