論文の概要: Deep Context Interest Network for Click-Through Rate Prediction
- arxiv url: http://arxiv.org/abs/2308.06037v1
- Date: Fri, 11 Aug 2023 09:32:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 14:37:26.817767
- Title: Deep Context Interest Network for Click-Through Rate Prediction
- Title(参考訳): クリックスルーレート予測のためのDeep Context Interest Network
- Authors: Xuyang Hou, Zhe Wang, Qi Liu, Tan Qu, Jia Cheng, Jun Lei
- Abstract要約: 本稿では,クリックと表示コンテキストを統合的にモデル化し,ユーザのコンテキスト認識の興味を学習する,Deep Context Interest Network (DCIN) という新しいモデルを提案する。
DCINは当社のオンライン広告システムにデプロイされており、主要なトラフィックに対して1.5%のCTRと1.5%のRPMリフトを提供する。
- 参考スコア(独自算出の注目度): 16.37806484383383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Click-Through Rate (CTR) prediction, estimating the probability of a user
clicking on an item, is essential in industrial applications, such as online
advertising. Many works focus on user behavior modeling to improve CTR
prediction performance. However, most of those methods only model users'
positive interests from users' click items while ignoring the context
information, which is the display items around the clicks, resulting in
inferior performance. In this paper, we highlight the importance of context
information on user behavior modeling and propose a novel model named Deep
Context Interest Network (DCIN), which integrally models the click and its
display context to learn users' context-aware interests. DCIN consists of three
key modules: 1) Position-aware Context Aggregation Module (PCAM), which
performs aggregation of display items with an attention mechanism; 2)
Feedback-Context Fusion Module (FCFM), which fuses the representation of clicks
and display contexts through non-linear feature interaction; 3) Interest
Matching Module (IMM), which activates interests related with the target item.
Moreover, we provide our hands-on solution to implement our DCIN model on
large-scale industrial systems. The significant improvements in both offline
and online evaluations demonstrate the superiority of our proposed DCIN method.
Notably, DCIN has been deployed on our online advertising system serving the
main traffic, which brings 1.5% CTR and 1.5% RPM lift.
- Abstract(参考訳): クリックスルー率(ctr)予測(アイテムをクリックするユーザの確率を推定する)は、オンライン広告のような産業アプリケーションにおいて不可欠である。
多くの研究は、CTR予測性能を改善するためにユーザー行動モデリングに焦点を当てている。
しかし,これらの手法の多くは,クリック時の表示項目であるコンテキスト情報を無視しながら,ユーザのクリック項目からの肯定的な関心をモデル化するだけであり,性能は低下する。
本稿では、ユーザ行動モデリングにおけるコンテキスト情報の重要性を強調し、クリックと表示コンテキストを統合的にモデル化し、ユーザのコンテキスト認識の興味を学習するDeep Context Interest Network(DCIN)という新しいモデルを提案する。
DCINは3つの主要なモジュールから構成される。
1)注目機構を備えた表示項目の集約を行う位置認識コンテキスト集約モジュール(PCAM)
2) フィードバックコンテキスト融合モジュール(FCFM)は,非線形特徴の相互作用を通じて,クリックと表示コンテキストの表現を融合する。
3) 対象項目に関連する興味を活性化する関心マッチングモジュール(imm)。
さらに,大規模産業システムにDCINモデルを実装するための手持ちソリューションも提供します。
オフライン評価とオンライン評価の両面での大きな改善は,提案手法の優位性を示している。
特に、DCINは主要なトラフィックを提供するオンライン広告システムにデプロイされており、1.5%のCTRと1.5%のRPMリフトをもたらす。
関連論文リスト
- Multi-granularity Interest Retrieval and Refinement Network for Long-Term User Behavior Modeling in CTR Prediction [68.90783662117936]
クリックスルーレート(CTR)の予測は、オンラインパーソナライズプラットフォームにとって不可欠である。
近年の進歩は、リッチなユーザの振る舞いをモデル化することで、CTR予測の性能を大幅に改善できることを示している。
マルチグラニュラリティ興味検索ネットワーク(MIRRN)を提案する。
論文 参考訳(メタデータ) (2024-11-22T15:29:05Z) - InterFormer: Towards Effective Heterogeneous Interaction Learning for Click-Through Rate Prediction [72.50606292994341]
我々はインターリービング方式で異種情報インタラクションを学習するInterFormerという新しいモジュールを提案する。
提案するInterFormerは,3つのパブリックデータセットと大規模産業データセットに対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-11-15T00:20:36Z) - Decision-Making Context Interaction Network for Click-Through Rate
Prediction [13.279762313462513]
本稿では,意思決定コンテキストを学習するためのDCIN(Decision-Making Context Interaction Network)を提案する。
パブリックデータセットと産業データセットの実験では、DCINは最先端の手法よりも大幅に優れています。
特に、オンラインA/BテストではCTR+2.9%/CPM+2.1%/GMV+1.5%の改善が得られ、Meituan Waimai広告システムの主要なトラフィックとなった。
論文 参考訳(メタデータ) (2023-01-29T09:48:01Z) - Meta-Wrapper: Differentiable Wrapping Operator for User Interest
Selection in CTR Prediction [97.99938802797377]
クリックスルー率(CTR)予測は、ユーザーが商品をクリックする確率を予測することを目的としており、リコメンデーションシステムにおいてますます重要になっている。
近年,ユーザの行動からユーザの興味を自動的に抽出する深層学習モデルが大きな成功を収めている。
そこで我々は,メタラッパー(Meta-Wrapper)と呼ばれるラッパー手法の枠組みに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2022-06-28T03:28:15Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Masked Transformer for Neighhourhood-aware Click-Through Rate Prediction [74.52904110197004]
本稿では,近隣相互作用に基づくCTR予測を提案し,そのタスクを異種情報ネットワーク(HIN)設定に組み込む。
周辺地域の表現を高めるために,ノード間のトポロジカルな相互作用を4種類検討する。
本研究では,2つの実世界のデータセットに関する総合的な実験を行い,提案手法が最先端のCTRモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2022-01-25T12:44:23Z) - Dynamic Parameterized Network for CTR Prediction [6.749659219776502]
我々は、明示的かつ暗黙的な相互作用をインスタンスワイズで学習するために、新しいプラグイン操作であるDynamic ized Operation (DPO)を提案した。
DNNモジュールとアテンションモジュールへのDPOの導入は,クリックスルー率(CTR)予測においてそれぞれ2つの主要なタスクに有効であることを示した。
我々のDynamic ized Networksは、パブリックデータセットと実世界のプロダクションデータセットのオフライン実験において、最先端の手法を著しく上回る。
論文 参考訳(メタデータ) (2021-11-09T08:15:03Z) - Multimodal and Contrastive Learning for Click Fraud Detection [3.958603405726725]
Click Fraud Detection (MCCF) のためのマルチモーダル・コントラスト学習ネットワークを提案する。
MCCFはワイド・ディープの特徴, 行動シーケンス, 異種ネットワークを共同で利用し, クリック表現を蒸留する。
Alibabaプラットフォーム上の2.54百万クリックを含む実世界のデータセットを用いて、MCCFの有効性を調査する。
論文 参考訳(メタデータ) (2021-05-08T03:03:11Z) - Represent Items by Items: An Enhanced Representation of the Target Item
for Recommendation [37.28220632871373]
アイテムベースの協調フィルタリング(ICF)は、レコメンダシステムやオンライン広告などの産業アプリケーションで広く利用されている。
最近のモデルは、注意メカニズムやディープニューラルネットワークなどの方法を使用して、ユーザー表現とスコアリング機能をより正確に学習します。
共起項目から関連する情報を蒸留する対象項目の表現の強化を提案する。
論文 参考訳(メタデータ) (2021-04-26T11:28:28Z) - FAIRS -- Soft Focus Generator and Attention for Robust Object
Segmentation from Extreme Points [70.65563691392987]
本稿では,ユーザ入力からオブジェクトのセグメンテーションを極端点と補正クリックの形で生成する手法を提案する。
提案手法は,エクストリームポイント,クリック誘導,修正クリックを原則として組み込んだ,高品質なトレーニングデータを生成する能力とスケーラビリティを実証する。
論文 参考訳(メタデータ) (2020-04-04T22:25:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。