論文の概要: Predicting Online Video Advertising Effects with Multimodal Deep
Learning
- arxiv url: http://arxiv.org/abs/2012.11851v1
- Date: Tue, 22 Dec 2020 06:24:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 07:31:39.371655
- Title: Predicting Online Video Advertising Effects with Multimodal Deep
Learning
- Title(参考訳): マルチモーダル深層学習によるオンラインビデオ広告効果の予測
- Authors: Jun Ikeda, Hiroyuki Seshime, Xueting Wang and Toshihiko Yamasaki
- Abstract要約: ビデオ広告のクリックスルー率(CTR)を予測し,CTRを決定する要因を解析する手法を提案する。
本稿では,オンラインビデオ広告のマルチモーダル性を生かして,効果を正確に予測するための最適化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 33.20913249848369
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With expansion of the video advertising market, research to predict the
effects of video advertising is getting more attention. Although effect
prediction of image advertising has been explored a lot, prediction for video
advertising is still challenging with seldom research. In this research, we
propose a method for predicting the click through rate (CTR) of video
advertisements and analyzing the factors that determine the CTR. In this paper,
we demonstrate an optimized framework for accurately predicting the effects by
taking advantage of the multimodal nature of online video advertisements
including video, text, and metadata features. In particular, the two types of
metadata, i.e., categorical and continuous, are properly separated and
normalized. To avoid overfitting, which is crucial in our task because the
training data are not very rich, additional regularization layers are inserted.
Experimental results show that our approach can achieve a correlation
coefficient as high as 0.695, which is a significant improvement from the
baseline (0.487).
- Abstract(参考訳): ビデオ広告市場の拡大に伴い、ビデオ広告の効果を予測する研究が注目を集めている。
画像広告の効果予測は多く研究されているが、ビデオ広告の予測はいまだにほとんど研究されていない。
本研究では,ビデオ広告のクリックスルー率(CTR)を予測し,CTRを決定する要因を分析する手法を提案する。
本稿では,映像,テキスト,メタデータなどを含むオンラインビデオ広告のマルチモーダル性を生かして,効果を正確に予測するための最適化フレームワークを提案する。
特に、分類と連続という2種類のメタデータは適切に分離され、正規化される。
トレーニングデータがあまりリッチではないため,作業上重要なオーバーフィッティングを回避するために,追加の正規化レイヤが挿入される。
実験結果から,本手法の相関係数は0.695であり,ベースライン (0.487) に比べ有意に向上した。
関連論文リスト
- An accuracy improving method for advertising click through rate prediction based on enhanced xDeepFM model [0.0]
本稿では,xDeepFMアーキテクチャに基づく改良型CTR予測モデルを提案する。
マルチヘッド・アテンション・メカニズムを統合することで、モデルは機能相互作用の異なる側面に同時に焦点を合わせることができる。
Criteoデータセットの実験結果は、提案モデルが他の最先端手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-11-21T03:21:29Z) - Towards Debiasing Frame Length Bias in Text-Video Retrieval via Causal
Intervention [72.12974259966592]
トリミングビデオクリップのトレーニングセットとテストセットのフレーム長差による時間偏差について,一意かつ体系的に検討した。
Epic-Kitchens-100, YouCook2, MSR-VTTデータセットについて, 因果脱バイアス法を提案し, 広範な実験およびアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-09-17T15:58:27Z) - A Multimodal Analysis of Influencer Content on Twitter [40.41635575764701]
個人的な意見と商業的コンテンツの宣伝の線は、しばしばぼやけている。
これにより、インフルエンサー広告に関連する規制コンプライアンス違反の自動検出が困難になる。
我々は15,998のインフルエンサー投稿を商業的および非商業的カテゴリにマッピングした新しいTwitter(現在のX)データセットを紹介した。
論文 参考訳(メタデータ) (2023-09-06T15:07:23Z) - Causal Video Summarizer for Video Exploration [74.27487067877047]
Causal Video Summarizer (CVS) はビデオとクエリ間の対話的な情報をキャプチャするために提案されている。
既存のマルチモーダル映像要約データセットの評価から,提案手法が有効であることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-07-04T22:52:16Z) - Interpretable Deep Learning for Forecasting Online Advertising Costs: Insights from the Competitive Bidding Landscape [1.0923877073891446]
本稿では,オンライン広告市場における日平均CPCの予測に様々な時系列予測手法を用いた総合的研究について述べる。
時間融合変換器(TFT)を含む統計モデル,機械学習技術,深層学習手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-02-11T19:26:17Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - A Multimodal Framework for Video Ads Understanding [64.70769354696019]
広告ビデオコンテンツの構造化分析能力を向上させるためのマルチモーダルシステムの開発を行う。
2021年のTAAC最終リーダーボードでは, 位置推定と予測精度を考慮した0.2470のスコアを得た。
論文 参考訳(メタデータ) (2021-08-29T16:06:00Z) - Multimodal and Contrastive Learning for Click Fraud Detection [3.958603405726725]
Click Fraud Detection (MCCF) のためのマルチモーダル・コントラスト学習ネットワークを提案する。
MCCFはワイド・ディープの特徴, 行動シーケンス, 異種ネットワークを共同で利用し, クリック表現を蒸留する。
Alibabaプラットフォーム上の2.54百万クリックを含む実世界のデータセットを用いて、MCCFの有効性を調査する。
論文 参考訳(メタデータ) (2021-05-08T03:03:11Z) - Learning Representational Invariances for Data-Efficient Action
Recognition [52.23716087656834]
我々は,データ拡張戦略により,Kinetics-100,UCF-101,HMDB-51データセットのパフォーマンスが期待できることを示す。
また,完全な教師付き設定でデータ拡張戦略を検証し,性能向上を実証した。
論文 参考訳(メタデータ) (2021-03-30T17:59:49Z) - Dropout Prediction over Weeks in MOOCs by Learning Representations of
Clicks and Videos [6.030785848148107]
ビデオの表現と動画とクリックの相関関係を学習する手法を開発した。
その結果、ビデオのモデリングとクリックとの相関は、ドロップアウト予測において統計的に有意な改善をもたらすことが示唆された。
論文 参考訳(メタデータ) (2020-02-05T19:10:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。