論文の概要: Real-time Ad retrieval via LLM-generative Commercial Intention for Sponsored Search Advertising
- arxiv url: http://arxiv.org/abs/2504.01304v1
- Date: Wed, 02 Apr 2025 02:26:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 19:59:19.212029
- Title: Real-time Ad retrieval via LLM-generative Commercial Intention for Sponsored Search Advertising
- Title(参考訳): スポンサー検索広告のためのLCM生成商業意図によるリアルタイム広告検索
- Authors: Tongtong Liu, Zhaohui Wang, Meiyue Qin, Zenghui Lu, Xudong Chen, Yuekui Yang, Peng Shu,
- Abstract要約: 本稿ではリアルタイム広告検索(RARE)フレームワークを提案する。
RAREは、クエリの広告を直接リアルタイムで検索するために、中間的なセマンティック表現として商用意図(CI)を使用する。
オンライン実装は、消費の5.04%増加、Gross Merchandise Volume(GMV)の6.37%増加、クリックスルーレート(CTR)の1.28%向上、浅い変換の5.29%増加といった大きな利益をもたらした。
- 参考スコア(独自算出の注目度): 4.16793449447122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of Large Language Models (LLMs) with retrieval systems has shown promising potential in retrieving documents (docs) or advertisements (ads) for a given query. Existing LLM-based retrieval methods generate numeric or content-based DocIDs to retrieve docs/ads. However, the one-to-few mapping between numeric IDs and docs, along with the time-consuming content extraction, leads to semantic inefficiency and limits scalability in large-scale corpora. In this paper, we propose the Real-time Ad REtrieval (RARE) framework, which leverages LLM-generated text called Commercial Intentions (CIs) as an intermediate semantic representation to directly retrieve ads for queries in real-time. These CIs are generated by a customized LLM injected with commercial knowledge, enhancing its domain relevance. Each CI corresponds to multiple ads, yielding a lightweight and scalable set of CIs. RARE has been implemented in a real-world online system, handling daily search volumes in the hundreds of millions. The online implementation has yielded significant benefits: a 5.04% increase in consumption, a 6.37% rise in Gross Merchandise Volume (GMV), a 1.28% enhancement in click-through rate (CTR) and a 5.29% increase in shallow conversions. Extensive offline experiments show RARE's superiority over ten competitive baselines in four major categories.
- Abstract(参考訳): 検索システムとのLarge Language Models(LLMs)の統合は、あるクエリに対してドキュメント(docs)や広告(ads)を取得する有望な可能性を示している。
既存のLCMベースの検索方法は、docs/adsを検索するために数値またはコンテンツベースのDocIDを生成する。
しかし、数値IDと文書間の一対一のマッピングは、時間を要するコンテンツ抽出とともに、大規模コーパスにおける意味的非効率性とスケーラビリティの制限につながる。
本稿では,LLM生成テキストであるCommercial Intentions(CI)を中間的セマンティック表現として活用し,リアルタイムにクエリの広告を検索するリアルタイム広告検索(RARE)フレームワークを提案する。
これらのCIは、商業的知識を注入したカスタマイズされたLLMによって生成され、そのドメイン関連性を高める。
各CIは複数の広告に対応し、軽量でスケーラブルなCIセットを提供する。
RAREは現実世界のオンラインシステムで実装されており、毎日の検索量を数億ドルで処理している。
オンライン実装は、消費の5.04%増加、Gross Merchandise Volume(GMV)の6.37%増加、クリックスルーレート(CTR)の1.28%向上、浅い変換の5.29%増加といった大きな利益をもたらした。
大規模なオフライン実験は、RAREが4つの主要なカテゴリで10以上の競争ベースラインより優れていることを示している。
関連論文リスト
- CiteFix: Enhancing RAG Accuracy Through Post-Processing Citation Correction [0.2548904650574671]
Retrieval Augmented Generation (RAG) はLarge Language Models (LLM) の強力な応用として登場した。
本研究は,情報検索および要約作業におけるAI生成コンテンツの信頼性と信頼性の向上に寄与する。
論文 参考訳(メタデータ) (2025-04-22T06:41:25Z) - EnrichIndex: Using LLMs to Enrich Retrieval Indices Offline [47.064685680644345]
実世界の検索システムは、文書が関係しているかどうかを暗黙的に判断するためにしばしば必要とされる。
大規模言語モデル(LLM)は、それらの推論スキルを活用することで、そのような意味のある関連性を識別する大きな可能性を秘めている。
本稿では,LLMをオフラインで使用して意味に富んだ検索指標を構築する検索手法であるEnrichIndexを紹介する。
論文 参考訳(メタデータ) (2025-04-04T17:08:46Z) - Search-R1: Training LLMs to Reason and Leverage Search Engines with Reinforcement Learning [50.419872452397684]
Search-R1は推論フレームワークのための強化学習の拡張である。
リアルタイム検索とステップバイステップ推論の間に検索クエリを生成する。
性能は41%(Qwen2.5-7B)、20%(Qwen2.5-3B)で改善されている。
論文 参考訳(メタデータ) (2025-03-12T16:26:39Z) - Automated Query-Product Relevance Labeling using Large Language Models for E-commerce Search [3.392843594990172]
クエリとプロダクトのペアをアノテートするための従来のアプローチは、人間ベースのラベリングサービスに依存している。
本研究では,Large Language Models (LLMs) が,人間ラベル作成者に必要な時間とコストのごく一部で,このタスクにおける人間レベルの精度にアプローチ可能であることを示す。
この拡張性のある人間のアノテーションの代替は、情報検索領域に重大な影響を及ぼす。
論文 参考訳(メタデータ) (2025-02-21T22:59:36Z) - A Decoding Acceleration Framework for Industrial Deployable LLM-based Recommender Systems [49.588316022381385]
本稿では,LLMベースのレコメンデーション(DARE)のためのデコード高速化フレームワークを提案し,検索効率を向上させるためのカスタマイズされた検索プールと,ドラフトトークンの受け入れ率を高めるための緩和検証を提案する。
DAREは大規模な商用環境でのオンライン広告シナリオにデプロイされ、ダウンストリームのパフォーマンスを維持しながら3.45倍のスピードアップを実現している。
論文 参考訳(メタデータ) (2024-08-11T02:31:13Z) - Refiner: Restructure Retrieval Content Efficiently to Advance Question-Answering Capabilities [30.1331670544648]
大規模言語モデル(LLM)はパラメトリックな知識によって制限され、知識集約的なタスクに幻覚をもたらす。
我々は、RAGの検索後のプロセスで機能するエンドツーエンドの抽出・再構成パラダイムである$textitRefiner$を提案する。
論文 参考訳(メタデータ) (2024-06-17T09:25:10Z) - RAR: Retrieving And Ranking Augmented MLLMs for Visual Recognition [78.97487780589574]
MLLM(Multimodal Large Language Models)は、細粒度カテゴリの分類において優れている。
本稿では,MLLMの検索とランク付けのための拡張手法を提案する。
提案手法は, 微粒化認識における固有の限界に対処するだけでなく, モデルの包括的知識基盤も維持する。
論文 参考訳(メタデータ) (2024-03-20T17:59:55Z) - Scaling Up LLM Reviews for Google Ads Content Moderation [22.43127685744644]
大規模言語モデル(LLM)は、コンテンツモデレーションのための強力なツールであるが、その推論コストとレイテンシは、大規模なデータセットでカジュアルな使用を禁止している。
本研究では,Google Ads におけるコンテンツに対する LLM レビューのスケールアップ手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T23:47:02Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Query2doc: Query Expansion with Large Language Models [69.9707552694766]
提案手法はまず,大言語モデル (LLM) をプロンプトすることで擬似文書を生成する。
query2docは、アドホックIRデータセットでBM25のパフォーマンスを3%から15%向上させる。
また,本手法は,ドメイン内およびドメイン外の両方において,最先端の高密度検索に有効である。
論文 参考訳(メタデータ) (2023-03-14T07:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。