論文の概要: LEADRE: Multi-Faceted Knowledge Enhanced LLM Empowered Display Advertisement Recommender System
- arxiv url: http://arxiv.org/abs/2411.13789v2
- Date: Tue, 26 Nov 2024 02:54:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:33:40.355375
- Title: LEADRE: Multi-Faceted Knowledge Enhanced LLM Empowered Display Advertisement Recommender System
- Title(参考訳): LEADRE:多面的知識強化LDM内蔵ディスプレイ:レコメンダシステム
- Authors: Fengxin Li, Yi Li, Yue Liu, Chao Zhou, Yuan Wang, Xiaoxiang Deng, Wei Xue, Dapeng Liu, Lei Xiao, Haijie Gu, Jie Jiang, Hongyan Liu, Biao Qin, Jun He,
- Abstract要約: 従来のディスプレイ広告システムはIDベースの学習に頼っている。
LLMの広範な世界知識を活用することを提案する。
LEADREと呼ばれる新しいLCMベースのフレームワークを紹介する。
- 参考スコア(独自算出の注目度): 33.39947940384811
- License:
- Abstract: Display advertising provides significant value to advertisers, publishers, and users. Traditional display advertising systems utilize a multi-stage architecture consisting of retrieval, coarse ranking, and final ranking. However, conventional retrieval methods rely on ID-based learning to rank mechanisms and fail to adequately utilize the content information of ads, which hampers their ability to provide diverse recommendation lists. To address this limitation, we propose leveraging the extensive world knowledge of LLMs. However, three key challenges arise when attempting to maximize the effectiveness of LLMs: "How to capture user interests", "How to bridge the knowledge gap between LLMs and advertising system", and "How to efficiently deploy LLMs". To overcome these challenges, we introduce a novel LLM-based framework called LLM Empowered Display ADvertisement REcommender system (LEADRE). LEADRE consists of three core modules: (1) The Intent-Aware Prompt Engineering introduces multi-faceted knowledge and designs intent-aware <Prompt, Response> pairs that fine-tune LLMs to generate ads tailored to users' personal interests. (2) The Advertising-Specific Knowledge Alignment incorporates auxiliary fine-tuning tasks and Direct Preference Optimization (DPO) to align LLMs with ad semantic and business value. (3) The Efficient System Deployment deploys LEADRE in an online environment by integrating both latency-tolerant and latency-sensitive service. Extensive offline experiments demonstrate the effectiveness of LEADRE and validate the contributions of individual modules. Online A/B test shows that LEADRE leads to a 1.57% and 1.17% GMV lift for serviced users on WeChat Channels and Moments separately. LEADRE has been deployed on both platforms, serving tens of billions of requests each day.
- Abstract(参考訳): ディスプレイ広告は、広告主、パブリッシャー、ユーザーにとって重要な価値を提供する。
従来のディスプレイ広告システムは、検索、粗いランキング、最終的なランキングからなる多段階アーキテクチャを利用している。
しかし、従来の検索手法では、IDベースの学習でランク付けを行い、広告の内容情報を適切に利用できないため、多様なレコメンデーションリストを提供する能力が損なわれている。
この制限に対処するために,LLMの広範な世界知識を活用することを提案する。
しかし、LLMの有効性を最大化しようとする際には、3つの大きな課題が生じる:「ユーザ関心を捉える方法」、「LLMと広告システムの間の知識ギャップを埋める方法」、「LLMを効率的に展開する方法」。
これらの課題を克服するために,LLM Empowered Display Advertisement Recommender System (LEADRE) と呼ばれる新しいLCMベースのフレームワークを導入する。
The Intent-Aware Prompt Engineering introduceds multi-faceted knowledge and design intent-aware <Prompt, Response> pairs that fine-tune LLMs to create ads suitableed to user interest。
2)広告特化知識アライメントは補助的な微調整タスクと直接選好最適化(DPO)を組み、LCMを広告意味とビジネス価値に合わせる。
(3) 効率的なシステムデプロイメントは、レイテンシ耐性とレイテンシ感受性の両方を統合することで、LEADREをオンライン環境にデプロイする。
大規模なオフライン実験はLEADREの有効性を示し、個々のモジュールの寄与を検証する。
オンラインA/Bテストは、LEADREがWeChat ChannelsとMomentsのサービスユーザーに対して1.57%と1.17%のGMVリフトをもたらすことを示している。
LEADREは両プラットフォームにデプロイされており、毎日数千億のリクエストを処理している。
関連論文リスト
- A Decoding Acceleration Framework for Industrial Deployable LLM-based Recommender Systems [49.588316022381385]
本稿では,LLMベースのレコメンデーション(DARE)のためのデコード高速化フレームワークを提案し,検索効率を向上させるためのカスタマイズされた検索プールと,ドラフトトークンの受け入れ率を高めるための緩和検証を提案する。
DAREは大規模な商用環境でのオンライン広告シナリオにデプロイされ、ダウンストリームのパフォーマンスを維持しながら3.45倍のスピードアップを実現している。
論文 参考訳(メタデータ) (2024-08-11T02:31:13Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - NoteLLM-2: Multimodal Large Representation Models for Recommendation [71.87790090964734]
大規模言語モデル(LLM)は、テキスト理解や埋め込みタスクにおいて、例外的な習熟度を示している。
マルチモーダル表現のポテンシャル、特にアイテムツーイテム(I2I)レコメンデーションについては、未解明のままである。
本稿では,既存のLLMと視覚エンコーダの統合をカスタマイズし,効率的なマルチモーダル表現を実現するエンド・ツー・エンドのファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-05-27T03:24:01Z) - An Expert is Worth One Token: Synergizing Multiple Expert LLMs as Generalist via Expert Token Routing [55.25224913110965]
Expert-Token-Routing は、メタ LLM の語彙内の特別な専門家トークンとして、専門家 LLM を表現している。
既存の命令データセットから専門家のLSMの暗黙の専門知識を学ぶのをサポートする。
また、ユーザの視点から詳細なコラボレーションプロセスを隠蔽し、独特なLLMのように対話を容易にする。
論文 参考訳(メタデータ) (2024-03-25T15:17:05Z) - Towards Vision Enhancing LLMs: Empowering Multimodal Knowledge Storage
and Sharing in LLMs [72.49064988035126]
マルチモーダル大規模言語モデル(MLLM)の強化を目的としたMKS2という手法を提案する。
具体的には、LLMの内部ブロックに組み込まれたコンポーネントであるModular Visual Memoryを導入し、オープンワールドの視覚情報を効率的に保存するように設計されている。
実験により,MKS2は物理的・常識的な知識を必要とする文脈において,LLMの推論能力を大幅に増強することが示された。
論文 参考訳(メタデータ) (2023-11-27T12:29:20Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。