論文の概要: Auto prompting without training labels: An LLM cascade for product quality assessment in e-commerce catalogs
- arxiv url: http://arxiv.org/abs/2510.23941v1
- Date: Mon, 27 Oct 2025 23:49:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.62541
- Title: Auto prompting without training labels: An LLM cascade for product quality assessment in e-commerce catalogs
- Title(参考訳): トレーニングラベルのない自動プロンプト:eコマースカタログにおける製品品質評価のためのLCMカスケード
- Authors: Soham Satyadharma, Fatemeh Sheikholeslami, Swati Kaul, Aziz Umit Batur, Suleiman A. Khan,
- Abstract要約: 本稿では,eコマースにおける製品品質を評価するために,Large Language Models (LLM) の自動プロンプティングのための新しいフリーカスケードについて紹介する。
我々のシステムは、トレーニングラベルやモデル微調整を必要とせず、代わりに、数万の製品カテゴリと属性のペアに対して属性品質を評価するプロンプトを自動生成し、精錬する。
- 参考スコア(独自算出の注目度): 1.1634786343359016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel, training free cascade for auto-prompting Large Language Models (LLMs) to assess product quality in e-commerce. Our system requires no training labels or model fine-tuning, instead automatically generating and refining prompts for evaluating attribute quality across tens of thousands of product category-attribute pairs. Starting from a seed of human-crafted prompts, the cascade progressively optimizes instructions to meet catalog-specific requirements. This approach bridges the gap between general language understanding and domain-specific knowledge at scale in complex industrial catalogs. Our extensive empirical evaluations shows the auto-prompt cascade improves precision and recall by $8-10\%$ over traditional chain-of-thought prompting. Notably, it achieves these gains while reducing domain expert effort from 5.1 hours to 3 minutes per attribute - a $99\%$ reduction. Additionally, the cascade generalizes effectively across five languages and multiple quality assessment tasks, consistently maintaining performance gains.
- Abstract(参考訳): 本稿では,eコマースにおける製品品質を評価するために,Large Language Models (LLM) の自動プロンプティングのための新しいフリーカスケードについて紹介する。
我々のシステムは、トレーニングラベルやモデル微調整を必要とせず、代わりに、数万の製品カテゴリと属性のペアに対して属性品質を評価するプロンプトを自動生成し、精錬する。
人造プロンプトの種から始めて、カスケードは徐々に、カタログ固有の要件を満たすように指示を最適化する。
このアプローチは、複雑な産業カタログにおける一般言語理解と大規模ドメイン固有知識のギャップを埋める。
従来のチェーン・オブ・シークレット・プロンプトよりもオートプロンプト・カスケードの精度とリコールが8~10\%向上したことを示す実験的な評価を行った。
特に、ドメインエキスパートの労力を属性あたり5.1時間から3分に削減し、99.%のコスト削減を実現している。
さらに、カスケードは5つの言語にまたがって効果的に一般化され、複数の品質評価タスクが継続的にパフォーマンス向上を維持している。
関連論文リスト
- Auto-Prompting with Retrieval Guidance for Frame Detection in Logistics [0.0]
プロンプトエンジニアリングは、大規模な言語モデル(LLM)を大規模な微調整を必要とせずに複雑な推論やラベル付けタスクに適応する上で重要な役割を担っている。
本稿では,ロジスティクステキストにおけるフレーム検出のための新しいプロンプト最適化パイプラインを提案し,検索強化生成(RAG),少数ショットプロンプト,チェーン・オブ・シークレット(CoT)推論,自動CoT合成(Auto-CoT)を組み合わせて,タスク固有のプロンプトを生成する。
このフレームワークは実世界のロジスティクステキストアノテーションタスクで評価され、推論精度とラベリング効率が重要となる。
論文 参考訳(メタデータ) (2025-12-22T10:29:51Z) - AutoSchemaKG: Autonomous Knowledge Graph Construction through Dynamic Schema Induction from Web-Scale Corpora [51.77079220622184]
完全自律的な知識グラフ構築のためのフレームワークであるAutoKGを提案する。
大規模言語モデルを利用して知識トリプルを同時に抽出し,テキストから直接包括的なスキーマを誘導する。
我々は,9億以上のノードと590億のエッジを持つ知識グラフ群であるATLAS(Automated Triple Linking And induction)を構築した。
論文 参考訳(メタデータ) (2025-05-29T16:34:58Z) - Self-Refinement Strategies for LLM-based Product Attribute Value Extraction [51.45146101802871]
本稿では,製品属性値抽出タスクに2つの自己補充手法を適用した。
実験の結果, 2つの自己補充技術は, 処理コストを大幅に増大させながら, 抽出性能を著しく向上させることができないことがわかった。
開発データを持つシナリオでは、ファインチューニングが最もパフォーマンスが高いのに対して、ファインチューニングの上昇コストは製品記述の量が増加するにつれてバランスがとれる。
論文 参考訳(メタデータ) (2025-01-02T12:55:27Z) - Auto-PRE: An Automatic and Cost-Efficient Peer-Review Framework for Language Generation Evaluation [52.76508734756661]
Auto-PREはピアレビュープロセスにインスパイアされた自動評価フレームワークである。
人間のアノテーションに依存する従来のアプローチとは異なり、Auto-PREは自動的に3つのコア特性に基づいて評価子を選択する。
要約,非ファクトイドQA,対話生成を含む3つの代表的なタスクの実験は,Auto-PREが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-16T06:06:06Z) - Leveraging Large Language Models for Enhanced Product Descriptions in
eCommerce [6.318353155416729]
本稿では,LAMA 2.0 7B言語モデルを用いた製品記述生成の自動化手法を提案する。
私たちはこのモデルを、最大のeコマースプラットフォームの1つであるWalmartの真正な製品記述のデータセットでトレーニングします。
以上の結果から,システムはスケーラブルであるだけでなく,製品記述作成に関わる人的負担を大幅に削減することが明らかとなった。
論文 参考訳(メタデータ) (2023-10-24T00:55:14Z) - Self-prompted Chain-of-Thought on Large Language Models for Open-domain
Multi-hop Reasoning [70.74928578278957]
オープンドメイン質問回答(ODQA)では、ほとんどの既存の質問はコモンセンスのシングルホップ推論を必要とする。
大規模言語モデル(LLM)は、外部コーパスなしでODQAを促進するために重要な有用性を見出した。
高品質なCoTを大量生産する自動化フレームワークSP-CoTを提案する。
論文 参考訳(メタデータ) (2023-10-20T14:51:10Z) - ExtractGPT: Exploring the Potential of Large Language Models for Product Attribute Value Extraction [52.14681890859275]
電子商取引プラットフォームは、属性と値のペアという形で構造化された製品データを必要とする。
BERTベースの抽出法では,タスク固有の大量のトレーニングデータを必要とする。
本稿では,大規模言語モデル (LLM) を,より訓練的かつ堅牢な代替手段として活用することを検討する。
論文 参考訳(メタデータ) (2023-10-19T07:39:00Z) - Catalog Phrase Grounding (CPG): Grounding of Product Textual Attributes
in Product Images for e-commerce Vision-Language Applications [4.705291741591329]
本稿では,製品画像の対応する領域に製品テキストデータ(タイトル,ブランド)を関連付けるモデルであるCatalog Phrase Grounding(CPG)を提案する。
我々は、Eコマースサイトから合成された230万の画像テキストペアを用いて、自己教師型でモデルをトレーニングする。
実験の結果,CPG表現を既存の生産アンサンブルシステムに組み込むことで,世界全体で平均5%のリコール改善が達成された。
論文 参考訳(メタデータ) (2023-08-30T23:02:26Z) - Multi-output Headed Ensembles for Product Item Classification [0.9053163124987533]
本稿では,eコマースカタログを対象としたディープラーニングに基づく分類モデルフレームワークを提案する。
我々は、ロバストな業界標準ベースラインモデルに対する改善を示す。
また,ユーザセッションを用いたモデル性能評価手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T01:23:36Z) - Field-Guide-Inspired Zero-Shot Learning [39.10156282444968]
そこで我々は,学習者がクラスを定義する最も有用な属性を対話的に要求するゼロショットアノテーションに対して,フィールドガイドにインスパイアされた新しいアプローチを提案する。
我々は,CUB,SUN,AWA2などの属性アノテーションを用いた分類ベンチマークにおいて,本手法の有効性を検証し,アノテーション数を大幅に減らし,完全アノテーションを用いたモデルの性能を実現することを示す。
論文 参考訳(メタデータ) (2021-08-24T21:36:05Z) - Automatic Validation of Textual Attribute Values in E-commerce Catalog
by Learning with Limited Labeled Data [61.789797281676606]
そこで我々はMetaBridgeと呼ばれる新しいメタ学習潜伏変数アプローチを提案する。
限られたラベル付きデータを持つカテゴリのサブセットから、転送可能な知識を学ぶことができる。
ラベルのないデータで、目に見えないカテゴリの不確実性を捉えることができる。
論文 参考訳(メタデータ) (2020-06-15T21:31:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。