論文の概要: Boost CTR Prediction for New Advertisements via Modeling Visual Content
- arxiv url: http://arxiv.org/abs/2209.11727v1
- Date: Fri, 23 Sep 2022 17:08:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 17:15:21.273962
- Title: Boost CTR Prediction for New Advertisements via Modeling Visual Content
- Title(参考訳): 視覚コンテンツモデリングによる新種のCTR予測の高速化
- Authors: Tan Yu, Zhipeng Jin, Jie Liu, Yi Yang, Hongliang Fei, Ping Li
- Abstract要約: 広告の視覚的内容を利用してCTR予測モデルの性能を向上させる。
過去に蓄積された履歴的ユーザ・アドインタラクションに基づいて,各ビジュアルIDの埋め込みを学習する。
Baiduオンライン広告のCTR予測モデルにビジュアルIDを埋め込んだ後、広告の平均CTRは1.46%改善し、総料金は1.10%増加した。
- 参考スコア(独自算出の注目度): 55.11267821243347
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing advertisements click-through rate (CTR) prediction models are mainly
dependent on behavior ID features, which are learned based on the historical
user-ad interactions. Nevertheless, behavior ID features relying on historical
user behaviors are not feasible to describe new ads without previous
interactions with users. To overcome the limitations of behavior ID features in
modeling new ads, we exploit the visual content in ads to boost the performance
of CTR prediction models. Specifically, we map each ad into a set of visual IDs
based on its visual content. These visual IDs are further used for generating
the visual embedding for enhancing CTR prediction models. We formulate the
learning of visual IDs into a supervised quantization problem. Due to a lack of
class labels for commercial images in advertisements, we exploit image textual
descriptions as the supervision to optimize the image extractor for generating
effective visual IDs. Meanwhile, since the hard quantization is
non-differentiable, we soften the quantization operation to make it support the
end-to-end network training. After mapping each image into visual IDs, we learn
the embedding for each visual ID based on the historical user-ad interactions
accumulated in the past. Since the visual ID embedding depends only on the
visual content, it generalizes well to new ads. Meanwhile, the visual ID
embedding complements the ad behavior ID embedding. Thus, it can considerably
boost the performance of the CTR prediction models previously relying on
behavior ID features for both new ads and ads that have accumulated rich user
behaviors. After incorporating the visual ID embedding in the CTR prediction
model of Baidu online advertising, the average CTR of ads improves by 1.46%,
and the total charge increases by 1.10%.
- Abstract(参考訳): 既存の広告クリックスルーレート(CTR)予測モデルは主に行動IDの特徴に依存しており、過去のユーザ・アドインタラクションに基づいて学習されている。
それでも、過去のユーザー行動に依存する behavior id 機能は、以前のユーザーとのやりとりなしに新しい広告を記述することは不可能である。
新しい広告をモデル化する際の行動ID機能の限界を克服するため、広告の視覚的内容を利用してCTR予測モデルの性能を向上させる。
具体的には、各広告をビジュアルコンテンツに基づいて一連のビジュアルidにマップする。
これらの視覚IDは、CTR予測モデルを強化する視覚埋め込みを生成するためにさらに使用される。
我々は、視覚的IDの学習を教師付き量子化問題に定式化する。
広告における商用画像の分類ラベルの欠如により,画像のテキスト記述を利用して画像抽出器を最適化し,有効なビジュアルIDを生成する。
一方、ハード量子化は微分不可能であるため、量子化操作を軟化し、エンドツーエンドのネットワークトレーニングをサポートする。
各画像を視覚IDにマッピングした後,過去のユーザ・アドインタラクションに基づいて,視覚IDの埋め込みを学習する。
visual id埋め込みはビジュアルコンテンツのみに依存するので、新しい広告にうまく一般化します。
一方、ビジュアルIDの埋め込みは広告行動IDの埋め込みを補完する。
これにより、従来のCTR予測モデルでは、リッチなユーザの振る舞いを蓄積した新しい広告と広告の両方の行動ID機能に依存していた。
Baiduオンライン広告のCTR予測モデルにビジュアルIDを埋め込んだ後、広告の平均CTRは1.46%改善し、総料金は1.10%増加した。
関連論文リスト
- Enhancing Large Vision Language Models with Self-Training on Image Comprehension [131.14381425260706]
本稿では、画像理解に特化して自己学習アプローチを強調する自己学習 on Image (STIC)を紹介する。
まず、ラベルのない画像を用いて、画像記述の好みを自己構築する。
抽出した視覚情報に対する推論をさらに自己改善するため,既存の命令調整データのごく一部をモデルに再利用する。
論文 参考訳(メタデータ) (2024-05-30T05:53:49Z) - Attribute-Aware Deep Hashing with Self-Consistency for Large-Scale
Fine-Grained Image Retrieval [65.43522019468976]
本稿では属性認識ハッシュコードを生成するための自己整合性を持つ属性認識ハッシュネットワークを提案する。
本研究では,高レベル属性固有ベクトルを教師なしで蒸留する再構成タスクのエンコーダ・デコーダ構造ネットワークを開発する。
我々のモデルは,これらの属性ベクトルに特徴デコリレーション制約を設けて,それらの代表的能力を強化する。
論文 参考訳(メタデータ) (2023-11-21T08:20:38Z) - AdSEE: Investigating the Impact of Image Style Editing on Advertisement
Attractiveness [25.531489722164178]
本稿では,広告画像のセマンティック編集がオンライン広告の人気に影響を与えるか,あるいは変化させるかを検討する。
そこで我々は,StyleGANに基づく顔のセマンティック編集と広告画像へのインバージョンを導入し,GANベースの顔の潜在表現をクリックレートに寄与させるクリックレート予測器を訓練した。
5日間にわたって行われたオンラインA/Bテストでは、AdSEE編集サンプルのクリックスルー率の増加が、オリジナルの広告のコントロールグループと比較された。
論文 参考訳(メタデータ) (2023-09-15T04:52:49Z) - Improving Image Recognition by Retrieving from Web-Scale Image-Text Data [68.63453336523318]
本稿では,メモリから抽出した各サンプルの重要性を学習するアテンションベースのメモリモジュールを提案する。
既存の手法と比較して,提案手法は無関係な検索例の影響を排除し,入力クエリに有益であるものを保持する。
我々は、ImageNet-LT、Places-LT、Webvisionのデータセットで最先端の精度を実現していることを示す。
論文 参考訳(メタデータ) (2023-04-11T12:12:05Z) - Hybrid CNN Based Attention with Category Prior for User Image Behavior
Modeling [13.984055924772486]
本稿では,CTR予測のためのハイブリッドCNNベースのアテンションモジュールを提案する。
当社のアプローチは,10億規模の実サービスデータセット上でのオンラインとオフラインの両方の実験において,大幅な改善を実現している。
論文 参考訳(メタデータ) (2022-05-05T15:31:47Z) - Learning Graph Meta Embeddings for Cold-Start Ads in Click-Through Rate
Prediction [14.709092114902159]
本稿では,新しい広告IDに適切な初期埋め込みを生成する方法を迅速に学習できるグラフメタ埋め込み(GME)モデルを提案する。
3つの実世界のデータセットによる実験結果から、温暖化と冷暖化の双方において、GMEは予測性能を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-05-19T03:46:56Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Multi-Channel Sequential Behavior Networks for User Modeling in Online
Advertising [4.964012641964141]
本稿では,ユーザと広告を意味空間に埋め込むための深層学習手法であるマルチチャネルシーケンシャル行動ネットワーク(mc-sbn)を提案する。
提案するユーザエンコーダアーキテクチャでは,過去の検索クエリや訪問ページ,クリックした広告など,複数の入力チャネルからのユーザアクティビティをユーザベクトルにまとめる。
その結果,MC-SBNは関連広告のランク付けを改善し,クリック予測とコンバージョン予測の両方の性能を向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-12-27T06:13:29Z) - Iterative Boosting Deep Neural Networks for Predicting Click-Through
Rate [15.90144113403866]
クリックスルーレート(CTR)は、特定の項目のクリックの比率を、そのビューの総数に反映する。
XdBoostは、従来の機械学習の強化メカニズムの影響を受け、反復的な3段階ニューラルネットワークモデルである。
論文 参考訳(メタデータ) (2020-07-26T09:41:16Z) - Attribute-aware Identity-hard Triplet Loss for Video-based Person
Re-identification [51.110453988705395]
ビデオベースの人物識別(Re-ID)は重要なコンピュータビジョンタスクである。
属性認識型ID-hard Triplet Loss (AITL) と呼ばれる新しいメトリクス学習手法を提案する。
ビデオベースのRe-IDの完全なモデルを実現するために,Attribute-driven Spatio-Temporal Attention (ASTA) 機構を備えたマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T09:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。