論文の概要: Real-time Ad retrieval via LLM-generative Commercial Intention for Sponsored Search Advertising
- arxiv url: http://arxiv.org/abs/2504.01304v1
- Date: Wed, 02 Apr 2025 02:26:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:17:49.736628
- Title: Real-time Ad retrieval via LLM-generative Commercial Intention for Sponsored Search Advertising
- Title(参考訳): スポンサー検索広告のためのLCM生成商業意図によるリアルタイム広告検索
- Authors: Tongtong Liu, Zhaohui Wang, Meiyue Qin, Zenghui Lu, Xudong Chen, Yuekui Yang, Peng Shu,
- Abstract要約: 本稿ではリアルタイム広告検索(RARE)フレームワークを提案する。
RAREは、クエリの広告を直接リアルタイムで検索するために、中間的なセマンティック表現として商用意図(CI)を使用する。
オンライン実装は、消費の5.04%増加、Gross Merchandise Volume(GMV)の6.37%増加、クリックスルーレート(CTR)の1.28%向上、浅い変換の5.29%増加といった大きな利益をもたらした。
- 参考スコア(独自算出の注目度): 4.16793449447122
- License:
- Abstract: The integration of Large Language Models (LLMs) with retrieval systems has shown promising potential in retrieving documents (docs) or advertisements (ads) for a given query. Existing LLM-based retrieval methods generate numeric or content-based DocIDs to retrieve docs/ads. However, the one-to-few mapping between numeric IDs and docs, along with the time-consuming content extraction, leads to semantic inefficiency and limits scalability in large-scale corpora. In this paper, we propose the Real-time Ad REtrieval (RARE) framework, which leverages LLM-generated text called Commercial Intentions (CIs) as an intermediate semantic representation to directly retrieve ads for queries in real-time. These CIs are generated by a customized LLM injected with commercial knowledge, enhancing its domain relevance. Each CI corresponds to multiple ads, yielding a lightweight and scalable set of CIs. RARE has been implemented in a real-world online system, handling daily search volumes in the hundreds of millions. The online implementation has yielded significant benefits: a 5.04% increase in consumption, a 6.37% rise in Gross Merchandise Volume (GMV), a 1.28% enhancement in click-through rate (CTR) and a 5.29% increase in shallow conversions. Extensive offline experiments show RARE's superiority over ten competitive baselines in four major categories.
- Abstract(参考訳): 検索システムとのLarge Language Models(LLMs)の統合は、あるクエリに対してドキュメント(docs)や広告(ads)を取得する有望な可能性を示している。
既存のLCMベースの検索方法は、docs/adsを検索するために数値またはコンテンツベースのDocIDを生成する。
しかし、数値IDと文書間の一対一のマッピングは、時間を要するコンテンツ抽出とともに、大規模コーパスにおける意味的非効率性とスケーラビリティの制限につながる。
本稿では,LLM生成テキストであるCommercial Intentions(CI)を中間的セマンティック表現として活用し,リアルタイムにクエリの広告を検索するリアルタイム広告検索(RARE)フレームワークを提案する。
これらのCIは、商業的知識を注入したカスタマイズされたLLMによって生成され、そのドメイン関連性を高める。
各CIは複数の広告に対応し、軽量でスケーラブルなCIセットを提供する。
RAREは現実世界のオンラインシステムで実装されており、毎日の検索量を数億ドルで処理している。
オンライン実装は、消費の5.04%増加、Gross Merchandise Volume(GMV)の6.37%増加、クリックスルーレート(CTR)の1.28%向上、浅い変換の5.29%増加といった大きな利益をもたらした。
大規模なオフライン実験は、RAREが4つの主要なカテゴリで10以上の競争ベースラインより優れていることを示している。
関連論文リスト
- A Decoding Acceleration Framework for Industrial Deployable LLM-based Recommender Systems [49.588316022381385]
本稿では,LLMベースのレコメンデーション(DARE)のためのデコード高速化フレームワークを提案し,検索効率を向上させるためのカスタマイズされた検索プールと,ドラフトトークンの受け入れ率を高めるための緩和検証を提案する。
DAREは大規模な商用環境でのオンライン広告シナリオにデプロイされ、ダウンストリームのパフォーマンスを維持しながら3.45倍のスピードアップを実現している。
論文 参考訳(メタデータ) (2024-08-11T02:31:13Z) - Refiner: Restructure Retrieval Content Efficiently to Advance Question-Answering Capabilities [30.1331670544648]
大規模言語モデル(LLM)はパラメトリックな知識によって制限され、知識集約的なタスクに幻覚をもたらす。
我々は、RAGの検索後のプロセスで機能するエンドツーエンドの抽出・再構成パラダイムである$textitRefiner$を提案する。
論文 参考訳(メタデータ) (2024-06-17T09:25:10Z) - Text-Video Retrieval with Global-Local Semantic Consistent Learning [122.15339128463715]
我々は,シンプルで効果的なグローバル局所意味的一貫性学習(GLSCL)を提案する。
GLSCLは、テキストビデオ検索のためのモダリティをまたいだ潜在共有セマンティクスを活用する。
本手法はSOTAと同等の性能を実現し,計算コストの約220倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-05-21T11:59:36Z) - ERATTA: Extreme RAG for Table To Answers with Large Language Models [1.3318204310917532]
検索拡張現実(RAG)を備えた大規模言語モデル(LLM)は、スケーラブルな生成AIソリューションに最適な選択肢である。
本研究では,データ認証,ユーザクエリルーティング,データ検索,エンタープライズデータテーブルからの質問応答機能へのカスタムプロンプトを実現するために,複数のLLMを起動可能なLLMベースのユニークなシステムを提案する。
提案するシステムと評価基準は,持続可能性,財務状況,ソーシャルメディア領域において,数百のユーザクエリに対して,90%以上の信頼性スコアを達成している。
論文 参考訳(メタデータ) (2024-05-07T02:49:59Z) - RAR: Retrieving And Ranking Augmented MLLMs for Visual Recognition [78.97487780589574]
MLLM(Multimodal Large Language Models)は、細粒度カテゴリの分類において優れている。
本稿では,MLLMの検索とランク付けのための拡張手法を提案する。
提案手法は, 微粒化認識における固有の限界に対処するだけでなく, モデルの包括的知識基盤も維持する。
論文 参考訳(メタデータ) (2024-03-20T17:59:55Z) - Optimizing LLM Queries in Relational Workloads [58.254894049950366]
本稿では,LLMをリレーショナルクエリ内で実行する解析処理に対して,LLM(Large Language Models)推論を最適化する方法を示す。
私たちはこれらの最適化をApache Sparkで実装し、vLLMをバックエンドとして提供しています。
実データセット上の多様なLLMベースのクエリのベンチマークで、エンドツーエンドのレイテンシを最大4.4倍改善する。
論文 参考訳(メタデータ) (2024-03-09T07:01:44Z) - Scaling Up LLM Reviews for Google Ads Content Moderation [22.43127685744644]
大規模言語モデル(LLM)は、コンテンツモデレーションのための強力なツールであるが、その推論コストとレイテンシは、大規模なデータセットでカジュアルな使用を禁止している。
本研究では,Google Ads におけるコンテンツに対する LLM レビューのスケールアップ手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T23:47:02Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Query2doc: Query Expansion with Large Language Models [69.9707552694766]
提案手法はまず,大言語モデル (LLM) をプロンプトすることで擬似文書を生成する。
query2docは、アドホックIRデータセットでBM25のパフォーマンスを3%から15%向上させる。
また,本手法は,ドメイン内およびドメイン外の両方において,最先端の高密度検索に有効である。
論文 参考訳(メタデータ) (2023-03-14T07:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。