論文の概要: Hybrid CNN Based Attention with Category Prior for User Image Behavior
Modeling
- arxiv url: http://arxiv.org/abs/2205.02711v1
- Date: Thu, 5 May 2022 15:31:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 18:08:26.837011
- Title: Hybrid CNN Based Attention with Category Prior for User Image Behavior
Modeling
- Title(参考訳): ユーザ画像の挙動モデリングのためのカテゴリー付きハイブリッドCNNによる注意
- Authors: Xin Chen, Qingtao Tang, Ke Hu, Yue Xu, Shihang Qiu, Jia Cheng, Jun Lei
- Abstract要約: 本稿では,CTR予測のためのハイブリッドCNNベースのアテンションモジュールを提案する。
当社のアプローチは,10億規模の実サービスデータセット上でのオンラインとオフラインの両方の実験において,大幅な改善を実現している。
- 参考スコア(独自算出の注目度): 13.984055924772486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: User historical behaviors are proved useful for Click Through Rate (CTR)
prediction in online advertising system. In Meituan, one of the largest
e-commerce platform in China, an item is typically displayed with its image and
whether a user clicks the item or not is usually influenced by its image, which
implies that user's image behaviors are helpful for understanding user's visual
preference and improving the accuracy of CTR prediction. Existing user image
behavior models typically use a two-stage architecture, which extracts visual
embeddings of images through off-the-shelf Convolutional Neural Networks (CNNs)
in the first stage, and then jointly trains a CTR model with those visual
embeddings and non-visual features. We find that the two-stage architecture is
sub-optimal for CTR prediction. Meanwhile, precisely labeled categories in
online ad systems contain abundant visual prior information, which can enhance
the modeling of user image behaviors. However, off-the-shelf CNNs without
category prior may extract category unrelated features, limiting CNN's
expression ability. To address the two issues, we propose a hybrid CNN based
attention module, unifying user's image behaviors and category prior, for CTR
prediction. Our approach achieves significant improvements in both online and
offline experiments on a billion scale real serving dataset.
- Abstract(参考訳): ユーザの履歴行動は、オンライン広告システムにおけるクリックスルーレート(CTR)予測に有用であることが証明されている。
中国最大のeコマースプラットフォームであるMeituanでは、通常、アイテムは画像とともに表示され、ユーザーがそのアイテムをクリックしたかどうかは通常その画像に影響を受け、ユーザの視覚的嗜好を理解し、CTR予測の精度を向上させるのに役立つ。
既存のユーザイメージの振る舞いモデルは、通常、2段階のアーキテクチャを使用して、既製の畳み込みニューラルネットワーク(CNN)を通じて画像の視覚的埋め込みを抽出し、その視覚的埋め込みと非視覚的特徴とを併用してCTRモデルをトレーニングする。
CTR予測には2段階アーキテクチャが最適であることがわかった。
一方、オンライン広告システムの正確にラベル付けされたカテゴリには、大量の視覚的事前情報が含まれており、ユーザーイメージの振る舞いのモデリングを強化することができる。
しかし、カテゴリー事前を持たない既成のCNNはカテゴリ非関連の特徴を抽出し、CNNの表現能力を制限している。
この2つの課題に対処するため,CTR予測のためのハイブリッドCNNアテンションモジュールを提案する。
当社のアプローチは,10億のリアルサービングデータセット上で,オンラインおよびオフライン両方の実験において,大幅な改善を達成しています。
関連論文リスト
- An evaluation of CNN models and data augmentation techniques in hierarchical localization of mobile robots [0.0]
本研究では,移動ロボットの階層的位置決めを行うために,CNNモデルの評価とデータ拡張を行う。
この意味では、バックボーンとして使用される様々な最先端CNNモデルのアブレーション研究を示す。
ロボットの視覚的ローカライゼーションに対処するために,様々なデータ拡張視覚効果を提案する。
論文 参考訳(メタデータ) (2024-07-15T10:20:00Z) - ContentCTR: Frame-level Live Streaming Click-Through Rate Prediction
with Multimodal Transformer [31.10377461705053]
フレームレベルのCTR予測にマルチモーダルトランスを用いたContentCTRモデルを提案する。
実世界のシナリオと公開データセットの両方で広範な実験を行い、ContentCTRモデルは、リアルタイムのコンテンツ変更をキャプチャする従来のレコメンデーションモデルよりも優れています。
論文 参考訳(メタデータ) (2023-06-26T03:04:53Z) - Boost CTR Prediction for New Advertisements via Modeling Visual Content [55.11267821243347]
広告の視覚的内容を利用してCTR予測モデルの性能を向上させる。
過去に蓄積された履歴的ユーザ・アドインタラクションに基づいて,各ビジュアルIDの埋め込みを学習する。
Baiduオンライン広告のCTR予測モデルにビジュアルIDを埋め込んだ後、広告の平均CTRは1.46%改善し、総料金は1.10%増加した。
論文 参考訳(メタデータ) (2022-09-23T17:08:54Z) - Corrupted Image Modeling for Self-Supervised Visual Pre-Training [103.99311611776697]
自己教師型視覚前訓練のためのCIM(Corrupted Image Modeling)を提案する。
CIMは、小さなトレーニング可能なBEiTを備えた補助発電機を使用して、人工マスクトークンを使用する代わりに入力イメージを破損させる。
事前トレーニング後、エンハンサーは下流タスク用の高容量ビジュアルエンコーダとして使用できる。
論文 参考訳(メタデータ) (2022-02-07T17:59:04Z) - Masked Transformer for Neighhourhood-aware Click-Through Rate Prediction [74.52904110197004]
本稿では,近隣相互作用に基づくCTR予測を提案し,そのタスクを異種情報ネットワーク(HIN)設定に組み込む。
周辺地域の表現を高めるために,ノード間のトポロジカルな相互作用を4種類検討する。
本研究では,2つの実世界のデータセットに関する総合的な実験を行い,提案手法が最先端のCTRモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2022-01-25T12:44:23Z) - Improving Conversational Recommendation System by Pretraining on
Billions Scale of Knowledge Graph [29.093477601914355]
本稿では,新しい知識強化型ディープクロスネットワーク(K-DCN)を提案する。
まず、ユーザ、アイテム、会話に関する情報から10億件の会話知識グラフ(CKG)を構築する。
次に、知識グラフ埋め込み方法とグラフ畳み込みネットワークを導入し、セマンティック情報と構造情報をエンコードすることでCKGを事前訓練します。
K-DCNでは,ユーザ状態表現や対話対話表現,その他の通常の特徴表現を,ディープクロスネットワークを通じて融合し,候補項目のランク付けを行う。
論文 参考訳(メタデータ) (2021-04-30T10:56:41Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Learning CNN filters from user-drawn image markers for coconut-tree
image classification [78.42152902652215]
本稿では,CNNの特徴抽出器を訓練するために,最小限のユーザ選択画像を必要とする手法を提案する。
本手法は,クラスを識別する画像領域のユーザ描画マーカーから,各畳み込み層のフィルタを学習する。
バックプロパゲーションに基づく最適化には依存せず、ココナッツツリー空中画像のバイナリ分類にその利点を実証する。
論文 参考訳(メタデータ) (2020-08-08T15:50:23Z) - Category-Specific CNN for Visual-aware CTR Prediction at JD.com [47.09978876513512]
クリックスルーレート(CTR)予測のためのカテゴリ固有CNN(CSCNN)を提案する。
CSCNNは、まずカテゴリ知識を、各畳み込み層に軽量の注目モジュールを組み込んだ。
これにより、CSCNNはCTR予測の恩恵を受ける表現力のあるカテゴリ固有の視覚パターンを抽出できる。
論文 参考訳(メタデータ) (2020-06-18T07:52:27Z) - Improving Native Ads CTR Prediction by Large Scale Event Embedding and
Recurrent Networks [2.0902732379491207]
本研究では,ユーザの連続イベントの監視が弱いシームズネットワークをトレーニングすることで,各ユーザのブラウジングイベントをエンコードする大規模イベント埋め込み方式を提案する。
CTR予測問題は、ユーザー履歴をイベントのシーケンスとして自然にモデル化する教師付きリカレントニューラルネットワークとしてモデル化される。
論文 参考訳(メタデータ) (2018-04-24T16:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。