論文の概要: ELEC: Efficient Large Language Model-Empowered Click-Through Rate Prediction
- arxiv url: http://arxiv.org/abs/2509.07594v1
- Date: Tue, 09 Sep 2025 11:06:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.27722
- Title: ELEC: Efficient Large Language Model-Empowered Click-Through Rate Prediction
- Title(参考訳): ELEC: 効率的な大規模言語モデルを用いたクリックスルーレート予測
- Authors: Rui Dong, Wentao Ouyang, Xiangzheng Liu,
- Abstract要約: クリックスルー率(CTR)予測は、オンライン広告システムにおいて重要な役割を果たす。
LLMはテキストの背後にあるコンテキストと意味を理解するのに優れていますが、協調的なシグナルをキャプチャする上での課題に直面します。
本稿では,両モデルの利点を活用し,コラボレーション,セマンティクス,効率性を追求することを目的とする。
- 参考スコア(独自算出の注目度): 4.529095808378697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Click-through rate (CTR) prediction plays an important role in online advertising systems. On the one hand, traditional CTR prediction models capture the collaborative signals in tabular data via feature interaction modeling, but they lose semantics in text. On the other hand, Large Language Models (LLMs) excel in understanding the context and meaning behind text, but they face challenges in capturing collaborative signals and they have long inference latency. In this paper, we aim to leverage the benefits of both types of models and pursue collaboration, semantics and efficiency. We present ELEC, which is an Efficient LLM-Empowered CTR prediction framework. We first adapt an LLM for the CTR prediction task. In order to leverage the ability of the LLM but simultaneously keep efficiency, we utilize the pseudo-siamese network which contains a gain network and a vanilla network. We inject the high-level representation vector generated by the LLM into a collaborative CTR model to form the gain network such that it can take advantage of both tabular modeling and textual modeling. However, its reliance on the LLM limits its efficiency. We then distill the knowledge from the gain network to the vanilla network on both the score level and the representation level, such that the vanilla network takes only tabular data as input, but can still generate comparable performance as the gain network. Our approach is model-agnostic. It allows for the integration with various existing LLMs and collaborative CTR models. Experiments on real-world datasets demonstrate the effectiveness and efficiency of ELEC for CTR prediction.
- Abstract(参考訳): クリックスルー率(CTR)予測は、オンライン広告システムにおいて重要な役割を果たす。
一方、従来のCTR予測モデルは、機能相互作用モデリングによって表データの協調的な信号をキャプチャするが、テキストのセマンティクスは失われる。
一方、LLM(Large Language Models)は、テキストの背後にあるコンテキストと意味を理解するのに優れています。
本稿では,両モデルの利点を活用し,コラボレーション,セマンティクス,効率性を追求することを目的とする。
LLM-Em を用いた効率的な CTR 予測フレームワークである ELEC について述べる。
まず、CTR予測タスクにLLMを適用する。
LLMの能力を活用しながら効率を同時に維持するために、ゲインネットワークとバニラネットワークを含む擬似シムネットワークを利用する。
我々は、LLMによって生成された高レベル表現ベクトルを協調的なCTRモデルに注入し、グラフモデリングとテキストモデリングの両方を活用できるようにゲインネットワークを形成する。
しかし、LLMへの依存は効率を制限している。
次に、ガベージネットワークからベニラネットワークへの知識をスコアレベルと表現レベルの両方で蒸留し、ベニラネットワークは入力として表データのみを取るが、ガベージネットワークと同等の性能を生成できる。
私たちのアプローチはモデルに依存しません。
既存のLLMとコラボレーティブなCTRモデルとの統合を可能にする。
実世界のデータセットの実験は、CTR予測のためのELECの有効性と効率を実証している。
関連論文リスト
- FLIP: Fine-grained Alignment between ID-based Models and Pretrained Language Models for CTR Prediction [49.510163437116645]
クリックスルーレート(CTR)予測は、パーソナライズされたオンラインサービスにおいてコア機能モジュールとして機能する。
CTR予測のための従来のIDベースのモデルは、表形式の1ホットエンコードされたID特徴を入力として取る。
事前訓練された言語モデル(PLM)は、テキストのモダリティの文を入力として取る別のパラダイムを生み出した。
本稿では,CTR予測のためのIDベースモデルと事前学習言語モデル(FLIP)間の細粒度特徴レベルのアライメントを提案する。
論文 参考訳(メタデータ) (2023-10-30T11:25:03Z) - ClickPrompt: CTR Models are Strong Prompt Generators for Adapting Language Models to CTR Prediction [45.15127775876369]
クリックスルー率(CTR)の予測は、様々なインターネットアプリケーションにとってますます不可欠になっている。
従来のCTRモデルは、マルチフィールド分類データをワンホット符号化によりID特徴に変換し、特徴間の協調信号を抽出する。
我々は、CTRモデルを組み込んで対話対応ソフトプロンプトを生成する、新しいモデル非依存フレームワーク(ClickPrompt)を提案する。
論文 参考訳(メタデータ) (2023-10-13T16:37:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。