論文の概要: Auto prompting without training labels: An LLM cascade for product quality assessment in e-commerce catalogs
- arxiv url: http://arxiv.org/abs/2510.23941v1
- Date: Mon, 27 Oct 2025 23:49:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.62541
- Title: Auto prompting without training labels: An LLM cascade for product quality assessment in e-commerce catalogs
- Title(参考訳): トレーニングラベルのない自動プロンプト:eコマースカタログにおける製品品質評価のためのLCMカスケード
- Authors: Soham Satyadharma, Fatemeh Sheikholeslami, Swati Kaul, Aziz Umit Batur, Suleiman A. Khan,
- Abstract要約: 本稿では,eコマースにおける製品品質を評価するために,Large Language Models (LLM) の自動プロンプティングのための新しいフリーカスケードについて紹介する。
我々のシステムは、トレーニングラベルやモデル微調整を必要とせず、代わりに、数万の製品カテゴリと属性のペアに対して属性品質を評価するプロンプトを自動生成し、精錬する。
- 参考スコア(独自算出の注目度): 1.1634786343359016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel, training free cascade for auto-prompting Large Language Models (LLMs) to assess product quality in e-commerce. Our system requires no training labels or model fine-tuning, instead automatically generating and refining prompts for evaluating attribute quality across tens of thousands of product category-attribute pairs. Starting from a seed of human-crafted prompts, the cascade progressively optimizes instructions to meet catalog-specific requirements. This approach bridges the gap between general language understanding and domain-specific knowledge at scale in complex industrial catalogs. Our extensive empirical evaluations shows the auto-prompt cascade improves precision and recall by $8-10\%$ over traditional chain-of-thought prompting. Notably, it achieves these gains while reducing domain expert effort from 5.1 hours to 3 minutes per attribute - a $99\%$ reduction. Additionally, the cascade generalizes effectively across five languages and multiple quality assessment tasks, consistently maintaining performance gains.
- Abstract(参考訳): 本稿では,eコマースにおける製品品質を評価するために,Large Language Models (LLM) の自動プロンプティングのための新しいフリーカスケードについて紹介する。
我々のシステムは、トレーニングラベルやモデル微調整を必要とせず、代わりに、数万の製品カテゴリと属性のペアに対して属性品質を評価するプロンプトを自動生成し、精錬する。
人造プロンプトの種から始めて、カスケードは徐々に、カタログ固有の要件を満たすように指示を最適化する。
このアプローチは、複雑な産業カタログにおける一般言語理解と大規模ドメイン固有知識のギャップを埋める。
従来のチェーン・オブ・シークレット・プロンプトよりもオートプロンプト・カスケードの精度とリコールが8~10\%向上したことを示す実験的な評価を行った。
特に、ドメインエキスパートの労力を属性あたり5.1時間から3分に削減し、99.%のコスト削減を実現している。
さらに、カスケードは5つの言語にまたがって効果的に一般化され、複数の品質評価タスクが継続的にパフォーマンス向上を維持している。
関連論文リスト
- Self-Refinement Strategies for LLM-based Product Attribute Value Extraction [51.45146101802871]
本稿では,製品属性値抽出タスクに2つの自己補充手法を適用した。
実験の結果, 2つの自己補充技術は, 処理コストを大幅に増大させながら, 抽出性能を著しく向上させることができないことがわかった。
開発データを持つシナリオでは、ファインチューニングが最もパフォーマンスが高いのに対して、ファインチューニングの上昇コストは製品記述の量が増加するにつれてバランスがとれる。
論文 参考訳(メタデータ) (2025-01-02T12:55:27Z) - Leveraging Large Language Models for Enhanced Product Descriptions in
eCommerce [6.318353155416729]
本稿では,LAMA 2.0 7B言語モデルを用いた製品記述生成の自動化手法を提案する。
私たちはこのモデルを、最大のeコマースプラットフォームの1つであるWalmartの真正な製品記述のデータセットでトレーニングします。
以上の結果から,システムはスケーラブルであるだけでなく,製品記述作成に関わる人的負担を大幅に削減することが明らかとなった。
論文 参考訳(メタデータ) (2023-10-24T00:55:14Z) - ExtractGPT: Exploring the Potential of Large Language Models for Product Attribute Value Extraction [52.14681890859275]
電子商取引プラットフォームは、属性と値のペアという形で構造化された製品データを必要とする。
BERTベースの抽出法では,タスク固有の大量のトレーニングデータを必要とする。
本稿では,大規模言語モデル (LLM) を,より訓練的かつ堅牢な代替手段として活用することを検討する。
論文 参考訳(メタデータ) (2023-10-19T07:39:00Z) - Catalog Phrase Grounding (CPG): Grounding of Product Textual Attributes
in Product Images for e-commerce Vision-Language Applications [4.705291741591329]
本稿では,製品画像の対応する領域に製品テキストデータ(タイトル,ブランド)を関連付けるモデルであるCatalog Phrase Grounding(CPG)を提案する。
我々は、Eコマースサイトから合成された230万の画像テキストペアを用いて、自己教師型でモデルをトレーニングする。
実験の結果,CPG表現を既存の生産アンサンブルシステムに組み込むことで,世界全体で平均5%のリコール改善が達成された。
論文 参考訳(メタデータ) (2023-08-30T23:02:26Z) - Multi-output Headed Ensembles for Product Item Classification [0.9053163124987533]
本稿では,eコマースカタログを対象としたディープラーニングに基づく分類モデルフレームワークを提案する。
我々は、ロバストな業界標準ベースラインモデルに対する改善を示す。
また,ユーザセッションを用いたモデル性能評価手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T01:23:36Z) - Field-Guide-Inspired Zero-Shot Learning [39.10156282444968]
そこで我々は,学習者がクラスを定義する最も有用な属性を対話的に要求するゼロショットアノテーションに対して,フィールドガイドにインスパイアされた新しいアプローチを提案する。
我々は,CUB,SUN,AWA2などの属性アノテーションを用いた分類ベンチマークにおいて,本手法の有効性を検証し,アノテーション数を大幅に減らし,完全アノテーションを用いたモデルの性能を実現することを示す。
論文 参考訳(メタデータ) (2021-08-24T21:36:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。