論文の概要: Category-Specific CNN for Visual-aware CTR Prediction at JD.com
- arxiv url: http://arxiv.org/abs/2006.10337v2
- Date: Fri, 19 Jun 2020 09:11:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 12:40:46.903185
- Title: Category-Specific CNN for Visual-aware CTR Prediction at JD.com
- Title(参考訳): JD.comにおける視覚的CTR予測のためのカテゴリー別CNN
- Authors: Hu Liu, Jing Lu, Hao Yang, Xiwei Zhao, Sulong Xu, Hao Peng, Zehua
Zhang, Wenjie Niu, Xiaokun Zhu, Yongjun Bao, Weipeng Yan
- Abstract要約: クリックスルーレート(CTR)予測のためのカテゴリ固有CNN(CSCNN)を提案する。
CSCNNは、まずカテゴリ知識を、各畳み込み層に軽量の注目モジュールを組み込んだ。
これにより、CSCNNはCTR予測の恩恵を受ける表現力のあるカテゴリ固有の視覚パターンを抽出できる。
- 参考スコア(独自算出の注目度): 47.09978876513512
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As one of the largest B2C e-commerce platforms in China, JD com also powers a
leading advertising system, serving millions of advertisers with fingertip
connection to hundreds of millions of customers. In our system, as well as most
e-commerce scenarios, ads are displayed with images.This makes visual-aware
Click Through Rate (CTR) prediction of crucial importance to both business
effectiveness and user experience. Existing algorithms usually extract visual
features using off-the-shelf Convolutional Neural Networks (CNNs) and late fuse
the visual and non-visual features for the finally predicted CTR. Despite being
extensively studied, this field still face two key challenges. First, although
encouraging progress has been made in offline studies, applying CNNs in real
systems remains non-trivial, due to the strict requirements for efficient
end-to-end training and low-latency online serving. Second, the off-the-shelf
CNNs and late fusion architectures are suboptimal. Specifically, off-the-shelf
CNNs were designed for classification thus never take categories as input
features. While in e-commerce, categories are precisely labeled and contain
abundant visual priors that will help the visual modeling. Unaware of the ad
category, these CNNs may extract some unnecessary category-unrelated features,
wasting CNN's limited expression ability. To overcome the two challenges, we
propose Category-specific CNN (CSCNN) specially for CTR prediction. CSCNN early
incorporates the category knowledge with a light-weighted attention-module on
each convolutional layer. This enables CSCNN to extract expressive
category-specific visual patterns that benefit the CTR prediction. Offline
experiments on benchmark and a 10 billion scale real production dataset from
JD, together with an Online A/B test show that CSCNN outperforms all compared
state-of-the-art algorithms.
- Abstract(参考訳): 中国最大のb2c電子商取引プラットフォームの1つとして、jd comは主要な広告システムにも力を入れており、何百万もの広告主が数億人の顧客と指先で接続できるようになっている。
我々のシステムでは、ほとんどのeコマースシナリオと同様に、広告は画像で表示され、これにより、ビジネス効果とユーザエクスペリエンスの両方において重要な重要性を視覚的に認識するクリックスルーレート(CTR)を予測する。
既存のアルゴリズムは通常、既製の畳み込みニューラルネットワーク(CNN)を使用して視覚的特徴を抽出し、最終的に予測されたCTRの視覚的特徴と非視覚的特徴を後期に融合させる。
広く研究されているにもかかわらず、この分野は依然として2つの重要な課題に直面している。
第一に、オフライン研究における進歩を奨励する一方で、効率的なエンドツーエンドトレーニングと低遅延オンラインサービスに対する厳格な要件のため、実システムへのcnnの適用はさほど簡単なものではない。
第二に、既製のCNNと後期融合アーキテクチャは最適ではない。
特に、市販のCNNは分類用に設計されており、カテゴリを入力機能として扱うことはない。
eコマースでは、カテゴリは正確にラベル付けされ、ビジュアルモデリングに役立つ豊富なビジュアル優先事項を含んでいる。
広告カテゴリーに気付かず、これらのCNNは不必要なカテゴリ非関連の特徴を抽出し、CNNの限られた表現能力を浪費する。
この2つの課題を克服するため,CTR予測のためのカテゴリ固有CNN(CSCNN)を提案する。
CSCNNは、まずカテゴリ知識を、各畳み込み層に軽量の注目モジュールを組み込んだ。
これにより、CSCNNはCTR予測の恩恵を受ける表現的カテゴリ固有の視覚パターンを抽出できる。
ベンチマークに関するオフライン実験と、JDによる100億のスケールの実運用データセット、およびオンラインA/Bテストは、CSCNNが比較対象の最先端アルゴリズムよりも優れていることを示している。
関連論文リスト
- CSP-Net: Common Spatial Pattern Empowered Neural Networks for EEG-Based Motor Imagery Classification [23.289676815663523]
本稿では,CSPを用いた2つのニューラルネットワーク(CSP-Nets)を提案する。
CSP-Netsは知識駆動型CSPフィルタとデータ駆動型CNNを統合し、MI分類の性能を向上させる。
4つのパブリックMIデータセットの実験は、2つのCSP-NetがCNNのバックボーンよりも一貫して改善されていることを示した。
論文 参考訳(メタデータ) (2024-11-04T13:48:58Z) - OA-CNNs: Omni-Adaptive Sparse CNNs for 3D Semantic Segmentation [70.17681136234202]
設計上の違いを再検討し、スパースCNNが達成できることの限界をテストする。
本稿では,このギャップを埋めるために,適応受容場(親和性)と適応関係という2つの重要な要素を提案する。
この調査により、軽量モジュールを統合するネットワークのファミリーであるOmni-Adaptive 3D CNN(OA-CNN)が開発された。
論文 参考訳(メタデータ) (2024-03-21T14:06:38Z) - An Efficient Evolutionary Deep Learning Framework Based on Multi-source
Transfer Learning to Evolve Deep Convolutional Neural Networks [8.40112153818812]
畳み込みニューラルネットワーク(CNN)は、より複雑なトポロジを導入し、より深くより広いCNNへのキャパシティを拡大することで、長年にわたって、より優れたパフォーマンスを実現してきた。
計算コストは依然としてCNNを自動設計するボトルネックである。
本稿では, CNNを効率的に進化させるために, トランスファーラーニングにヒントを得て, 新たな進化的計算ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-07T20:22:58Z) - Hybrid CNN Based Attention with Category Prior for User Image Behavior
Modeling [13.984055924772486]
本稿では,CTR予測のためのハイブリッドCNNベースのアテンションモジュールを提案する。
当社のアプローチは,10億規模の実サービスデータセット上でのオンラインとオフラインの両方の実験において,大幅な改善を実現している。
論文 参考訳(メタデータ) (2022-05-05T15:31:47Z) - Transformed CNNs: recasting pre-trained convolutional layers with
self-attention [17.96659165573821]
視覚変換器(ViT)は、畳み込みネットワーク(CNN)の強力な代替手段として登場した。
本研究では、これらレイヤを畳み込み層として初期化することによって、これらのレイヤのトレーニングに要する時間を短縮するアイデアについて検討する。
微調整は50回しか行われず、結果として得られたT-CNNの性能は著しく向上した。
論文 参考訳(メタデータ) (2021-06-10T14:56:10Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Fusion of CNNs and statistical indicators to improve image
classification [65.51757376525798]
畳み込みネットワークは過去10年間、コンピュータビジョンの分野を支配してきた。
この傾向を長引かせる主要な戦略は、ネットワーク規模の拡大によるものだ。
我々は、異種情報ソースを追加することは、より大きなネットワークを構築するよりもCNNにとって費用対効果が高いと仮定している。
論文 参考訳(メタデータ) (2020-12-20T23:24:31Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。