論文の概要: Automated Query-Product Relevance Labeling using Large Language Models for E-commerce Search
- arxiv url: http://arxiv.org/abs/2502.15990v1
- Date: Fri, 21 Feb 2025 22:59:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 22:36:55.922163
- Title: Automated Query-Product Relevance Labeling using Large Language Models for E-commerce Search
- Title(参考訳): Eコマース検索のための大規模言語モデルを用いたクエリ-製品関連ラベルの自動作成
- Authors: Jayant Sachdev, Sean D Rosario, Abhijeet Phatak, He Wen, Swati Kirti, Chittaranjan Tripathy,
- Abstract要約: クエリとプロダクトのペアをアノテートするための従来のアプローチは、人間ベースのラベリングサービスに依存している。
本研究では,Large Language Models (LLMs) が,人間ラベル作成者に必要な時間とコストのごく一部で,このタスクにおける人間レベルの精度にアプローチ可能であることを示す。
この拡張性のある人間のアノテーションの代替は、情報検索領域に重大な影響を及ぼす。
- 参考スコア(独自算出の注目度): 3.392843594990172
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate query-product relevance labeling is indispensable to generate ground truth dataset for search ranking in e-commerce. Traditional approaches for annotating query-product pairs rely on human-based labeling services, which is expensive, time-consuming and prone to errors. In this work, we explore the application of Large Language Models (LLMs) to automate query-product relevance labeling for large-scale e-commerce search. We use several publicly available and proprietary LLMs for this task, and conducted experiments on two open-source datasets and an in-house e-commerce search dataset. Using prompt engineering techniques such as Chain-of-Thought (CoT) prompting, In-context Learning (ICL), and Retrieval Augmented Generation (RAG) with Maximum Marginal Relevance (MMR), we show that LLM's performance has the potential to approach human-level accuracy on this task in a fraction of the time and cost required by human-labelers, thereby suggesting that our approach is more efficient than the conventional methods. We have generated query-product relevance labels using LLMs at scale, and are using them for evaluating improvements to our search algorithms. Our work demonstrates the potential of LLMs to improve query-product relevance thus enhancing e-commerce search user experience. More importantly, this scalable alternative to human-annotation has significant implications for information retrieval domains including search and recommendation systems, where relevance scoring is crucial for optimizing the ranking of products and content to improve customer engagement and other conversion metrics.
- Abstract(参考訳): eコマースにおける検索ランキングの土台真実データセットを生成するには,正確なクエリ製品関連ラベル作成が不可欠である。
クエリとプロダクトのペアをアノテートするための従来のアプローチは、人ベースのラベリングサービスに依存している。
本研究では,大規模eコマース検索のためのクエリ製品関連ラベリングを自動化するために,LLM(Large Language Models)の適用について検討する。
このタスクには,複数の公開かつプロプライエタリなLCMを使用し,オープンソースの2つのデータセットと社内Eコマース検索データセットの実験を行った。
CoT(Chain-of-Thought)プロンプト,ICL(Retrieval Augmented Generation),MMR(Maximum Marginal Relevance)を併用したRAG(Retrieval Augmented Generation)などの素早いエンジニアリング技術を用いて,LLMの性能は,従来の手法よりも効率がよいことを示す。
LLMを大規模に使用してクエリ生成関連ラベルを生成し,検索アルゴリズムの改良を評価する。
本研究は,LLMがクエリ製品関連性を向上させる可能性を示し,eコマース検索ユーザエクスペリエンスを向上する。
より重要なのは、このスケーラブルなヒューマンアノテーションの代替手段は、検索やレコメンデーションシステムを含む情報検索ドメインに重要な意味を持ち、製品やコンテンツのランク付けを最適化し、顧客エンゲージメントやその他のコンバージョンメトリクスを改善する上で、関連性スコアが不可欠であることだ。
関連論文リスト
- LLM-Driven Usefulness Judgment for Web Search Evaluation [12.10711284043516]
情報検索(IR)における検索体験の最適化と多種多様なユーザ意図支援の基礎的評価
従来の検索評価手法は主に関連ラベルに依存しており、検索された文書がユーザのクエリとどのようにマッチするかを評価する。
本稿では,文書の有用性を評価するために,暗黙的かつ明示的なユーザ行動信号の両方を組み込んだLCM生成実用性ラベルを提案する。
論文 参考訳(メタデータ) (2025-04-19T20:38:09Z) - Generative Retrieval and Alignment Model: A New Paradigm for E-commerce Retrieval [12.705202836685189]
本稿では,GRAM(Generative Retrieval and Alignment Model)という新しいeコマース検索パラダイムを紹介する。
GRAMは、クエリと製品の両方からのテキスト情報を共同でトレーニングして、共有テキストコードを生成する。
GRAMは従来のモデルと最新の生成的検索モデルを大きく上回っている。
論文 参考訳(メタデータ) (2025-04-02T06:40:09Z) - LREF: A Novel LLM-based Relevance Framework for E-commerce [14.217396055372053]
本稿では,eコマース検索の妥当性を高めることを目的とした,LREF(LLM-based Relevance Framework)と呼ばれる新しいフレームワークを提案する。
大規模な実世界のデータセットのオフライン実験やオンラインA/Bテストを通じて,フレームワークの性能を評価する。
このモデルは有名なeコマースアプリケーションにデプロイされ、かなりの商業的利益をもたらした。
論文 参考訳(メタデータ) (2025-03-12T10:10:30Z) - When Search Engine Services meet Large Language Models: Visions and Challenges [53.32948540004658]
本稿では,大規模言語モデルと検索エンジンの統合が,両者の相互に利益をもたらすかどうかを詳細に検討する。
LLM(Search4LLM)の改良と,LLM(LLM4Search)を用いた検索エンジン機能の向上という,2つの主要な領域に注目した。
論文 参考訳(メタデータ) (2024-06-28T03:52:13Z) - AvaTaR: Optimizing LLM Agents for Tool Usage via Contrastive Reasoning [93.96463520716759]
大規模言語モデル(LLM)エージェントは、精度と幻覚を高めるために外部ツールと知識を活用する際、印象的な能力を示した。
本稿では、LLMエージェントを最適化して提供されたツールを効果的に活用し、与えられたタスクのパフォーマンスを向上させる新しい自動化フレームワークであるAvaTaRを紹介する。
論文 参考訳(メタデータ) (2024-06-17T04:20:02Z) - Large Language Models for Relevance Judgment in Product Search [48.56992980315751]
検索クエリに対する検索および再ランクされたアイテムの高い関連性は、製品検索の成功の土台である。
本稿では,大規模言語モデル(LLM)を活用して,クエリ・イテムペア(QIP)の関連判断を大規模に自動化する手法について述べる。
本研究は,製品検索における関連判断の自動化の分野への直接的な影響を示唆するものである。
論文 参考訳(メタデータ) (2024-06-01T00:52:41Z) - Enhanced E-Commerce Attribute Extraction: Innovating with Decorative
Relation Correction and LLAMA 2.0-Based Annotation [4.81846973621209]
本稿では,分類のためのBERT,属性値抽出のための条件付きランダムフィールド(CRF)層,データアノテーションのための大規模言語モデル(LLM)を統合した先駆的フレームワークを提案する。
提案手法は, CRFのシーケンス復号技術と相乗化したBERTの頑健な表現学習を利用して, 属性値の同定と抽出を行う。
私たちの方法論は、Walmart、BestBuyのEコマースNERデータセット、CoNLLデータセットなど、さまざまなデータセットで厳格に検証されています。
論文 参考訳(メタデータ) (2023-12-09T08:26:30Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - Improving Text Matching in E-Commerce Search with A Rationalizable,
Intervenable and Fast Entity-Based Relevance Model [78.80174696043021]
エンティティベース関連モデル(EBRM)と呼ばれる新しいモデルを提案する。
この分解により、高精度にクロスエンコーダQE関連モジュールを使用できる。
また、ユーザログから自動生成されたQEデータによるQEモジュールの事前トレーニングにより、全体的なパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-07-01T15:44:53Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Multi-Label Learning to Rank through Multi-Objective Optimization [9.099663022952496]
近年,情報検索システムではランク付け技法の学習が至るところで行われている。
あいまいさを解決するためには、多くの関連基準を用いてモデルを訓練することが望ましい。
本稿では,ラベルからの情報を様々な方法で組み合わせて,目標間のトレードオフを特徴付ける,汎用的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-07T03:02:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。