論文の概要: Automated Query-Product Relevance Labeling using Large Language Models for E-commerce Search
- arxiv url: http://arxiv.org/abs/2502.15990v1
- Date: Fri, 21 Feb 2025 22:59:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:58:49.380533
- Title: Automated Query-Product Relevance Labeling using Large Language Models for E-commerce Search
- Title(参考訳): Eコマース検索のための大規模言語モデルを用いたクエリ-製品関連ラベルの自動作成
- Authors: Jayant Sachdev, Sean D Rosario, Abhijeet Phatak, He Wen, Swati Kirti, Chittaranjan Tripathy,
- Abstract要約: クエリとプロダクトのペアをアノテートするための従来のアプローチは、人間ベースのラベリングサービスに依存している。
本研究では,Large Language Models (LLMs) が,人間ラベル作成者に必要な時間とコストのごく一部で,このタスクにおける人間レベルの精度にアプローチ可能であることを示す。
この拡張性のある人間のアノテーションの代替は、情報検索領域に重大な影響を及ぼす。
- 参考スコア(独自算出の注目度): 3.392843594990172
- License:
- Abstract: Accurate query-product relevance labeling is indispensable to generate ground truth dataset for search ranking in e-commerce. Traditional approaches for annotating query-product pairs rely on human-based labeling services, which is expensive, time-consuming and prone to errors. In this work, we explore the application of Large Language Models (LLMs) to automate query-product relevance labeling for large-scale e-commerce search. We use several publicly available and proprietary LLMs for this task, and conducted experiments on two open-source datasets and an in-house e-commerce search dataset. Using prompt engineering techniques such as Chain-of-Thought (CoT) prompting, In-context Learning (ICL), and Retrieval Augmented Generation (RAG) with Maximum Marginal Relevance (MMR), we show that LLM's performance has the potential to approach human-level accuracy on this task in a fraction of the time and cost required by human-labelers, thereby suggesting that our approach is more efficient than the conventional methods. We have generated query-product relevance labels using LLMs at scale, and are using them for evaluating improvements to our search algorithms. Our work demonstrates the potential of LLMs to improve query-product relevance thus enhancing e-commerce search user experience. More importantly, this scalable alternative to human-annotation has significant implications for information retrieval domains including search and recommendation systems, where relevance scoring is crucial for optimizing the ranking of products and content to improve customer engagement and other conversion metrics.
- Abstract(参考訳): eコマースにおける検索ランキングの土台真実データセットを生成するには,正確なクエリ製品関連ラベル作成が不可欠である。
クエリとプロダクトのペアをアノテートするための従来のアプローチは、人ベースのラベリングサービスに依存している。
本研究では,大規模eコマース検索のためのクエリ製品関連ラベリングを自動化するために,LLM(Large Language Models)の適用について検討する。
このタスクには,複数の公開かつプロプライエタリなLCMを使用し,オープンソースの2つのデータセットと社内Eコマース検索データセットの実験を行った。
CoT(Chain-of-Thought)プロンプト,ICL(Retrieval Augmented Generation),MMR(Maximum Marginal Relevance)を併用したRAG(Retrieval Augmented Generation)などの素早いエンジニアリング技術を用いて,LLMの性能は,従来の手法よりも効率がよいことを示す。
LLMを大規模に使用してクエリ生成関連ラベルを生成し,検索アルゴリズムの改良を評価する。
本研究は,LLMがクエリ製品関連性を向上させる可能性を示し,eコマース検索ユーザエクスペリエンスを向上する。
より重要なのは、このスケーラブルなヒューマンアノテーションの代替手段は、検索やレコメンデーションシステムを含む情報検索ドメインに重要な意味を持ち、製品やコンテンツのランク付けを最適化し、顧客エンゲージメントやその他のコンバージョンメトリクスを改善する上で、関連性スコアが不可欠であることだ。
関連論文リスト
- Learning to Predict Usage Options of Product Reviews with LLM-Generated Labels [14.006486214852444]
複雑な自然言語タスクにおけるデータアノテートのための,少人数の学習者としてLLMを使用する手法を提案する。
カスタムモデルを学ぶことは、エネルギー効率とプライバシー対策を個別に制御する。
結果のデータの質が、サードパーティのベンダーサービスによって達成されたレベルを超えていることに気付きました。
論文 参考訳(メタデータ) (2024-10-16T11:34:33Z) - When Search Engine Services meet Large Language Models: Visions and Challenges [53.32948540004658]
本稿では,大規模言語モデルと検索エンジンの統合が,両者の相互に利益をもたらすかどうかを詳細に検討する。
LLM(Search4LLM)の改良と,LLM(LLM4Search)を用いた検索エンジン機能の向上という,2つの主要な領域に注目した。
論文 参考訳(メタデータ) (2024-06-28T03:52:13Z) - AvaTaR: Optimizing LLM Agents for Tool Usage via Contrastive Reasoning [93.96463520716759]
大規模言語モデル(LLM)エージェントは、精度と幻覚を高めるために外部ツールと知識を活用する際、印象的な能力を示した。
本稿では、LLMエージェントを最適化して提供されたツールを効果的に活用し、与えられたタスクのパフォーマンスを向上させる新しい自動化フレームワークであるAvaTaRを紹介する。
論文 参考訳(メタデータ) (2024-06-17T04:20:02Z) - Large Language Models for Relevance Judgment in Product Search [48.56992980315751]
検索クエリに対する検索および再ランクされたアイテムの高い関連性は、製品検索の成功の土台である。
本稿では,大規模言語モデル(LLM)を活用して,クエリ・イテムペア(QIP)の関連判断を大規模に自動化する手法について述べる。
本研究は,製品検索における関連判断の自動化の分野への直接的な影響を示唆するものである。
論文 参考訳(メタデータ) (2024-06-01T00:52:41Z) - Enhanced E-Commerce Attribute Extraction: Innovating with Decorative
Relation Correction and LLAMA 2.0-Based Annotation [4.81846973621209]
本稿では,分類のためのBERT,属性値抽出のための条件付きランダムフィールド(CRF)層,データアノテーションのための大規模言語モデル(LLM)を統合した先駆的フレームワークを提案する。
提案手法は, CRFのシーケンス復号技術と相乗化したBERTの頑健な表現学習を利用して, 属性値の同定と抽出を行う。
私たちの方法論は、Walmart、BestBuyのEコマースNERデータセット、CoNLLデータセットなど、さまざまなデータセットで厳格に検証されています。
論文 参考訳(メタデータ) (2023-12-09T08:26:30Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - Improving Text Matching in E-Commerce Search with A Rationalizable,
Intervenable and Fast Entity-Based Relevance Model [78.80174696043021]
エンティティベース関連モデル(EBRM)と呼ばれる新しいモデルを提案する。
この分解により、高精度にクロスエンコーダQE関連モジュールを使用できる。
また、ユーザログから自動生成されたQEデータによるQEモジュールの事前トレーニングにより、全体的なパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-07-01T15:44:53Z) - Knowledge Graph Completion Models are Few-shot Learners: An Empirical
Study of Relation Labeling in E-commerce with LLMs [16.700089674927348]
大規模言語モデル(LLM)は多くの自然言語処理タスクにおいて驚くべき結果を示している。
本稿では,自然言語における強力な学習能力とラベル付きデータを用いた製品タイプ間の関係予測の有効性について検討する。
以上の結果から,LLMは電子商取引KGのリレーショナルラベリングにおいて既存のKG完成モデルよりも大幅に優れており,人間のラベリングに取って代わるほど高い性能を示した。
論文 参考訳(メタデータ) (2023-05-17T00:08:36Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Multi-Label Learning to Rank through Multi-Objective Optimization [9.099663022952496]
近年,情報検索システムではランク付け技法の学習が至るところで行われている。
あいまいさを解決するためには、多くの関連基準を用いてモデルを訓練することが望ましい。
本稿では,ラベルからの情報を様々な方法で組み合わせて,目標間のトレードオフを特徴付ける,汎用的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-07T03:02:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。