論文の概要: Long-Term Memorability On Advertisements
- arxiv url: http://arxiv.org/abs/2309.00378v1
- Date: Fri, 1 Sep 2023 10:27:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-04 13:52:51.094053
- Title: Long-Term Memorability On Advertisements
- Title(参考訳): 広告の長期記憶力
- Authors: Harini S I, Somesh Singh, Yaman K Singla, Aanisha Bhattacharyya, Veeky
Baths, Changyou Chen, Rajiv Ratn Shah, Balaji Krishnamurthy
- Abstract要約: ML文学における広告の記憶可能性に関する研究は行われていない。
276のブランドをカバーする1203の参加者と2205の広告からなる,最初の大規模記憶可能性調査を行った。
速く動くシーンを持つコマーシャルを使うブランドは、遅いシーンを持つブランドよりも記憶に残るものが多い。
- 参考スコア(独自算出の注目度): 56.574610730939646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Marketers spend billions of dollars on advertisements but to what end? At the
purchase time, if customers cannot recognize a brand for which they saw an ad,
the money spent on the ad is essentially wasted. Despite its importance in
marketing, until now, there has been no study on the memorability of ads in the
ML literature. Most studies have been conducted on short-term recall (<5 mins)
on specific content types like object and action videos. On the other hand, the
advertising industry only cares about long-term memorability (a few hours or
longer), and advertisements are almost always highly multimodal, depicting a
story through its different modalities (text, images, and videos). With this
motivation, we conduct the first large scale memorability study consisting of
1203 participants and 2205 ads covering 276 brands. Running statistical tests
over different participant subpopulations and ad-types, we find many
interesting insights into what makes an ad memorable - both content and human
factors. For example, we find that brands which use commercials with fast
moving scenes are more memorable than those with slower scenes (p=8e-10) and
that people who use ad-blockers remember lower number of ads than those who
don't (p=5e-3). Further, with the motivation of simulating the memorability of
marketing materials for a particular audience, ultimately helping create one,
we present a novel model, Sharingan, trained to leverage real-world knowledge
of LLMs and visual knowledge of visual encoders to predict the memorability of
a content. We test our model on all the prominent memorability datasets in
literature (both images and videos) and achieve state of the art across all of
them. We conduct extensive ablation studies across memory types, modality,
brand, and architectural choices to find insights into what drives memory.
- Abstract(参考訳): マーケターは広告に何十億ドルも費やすが、どう終わるのか?
購入時に、顧客が広告を見たブランドを認識できなければ、広告に費やされたお金は本質的に無駄になる。
マーケティングの重要性にもかかわらず、これまでML文学における広告の記憶可能性に関する研究は行われていない。
ほとんどの研究は、オブジェクトやアクションビデオのような特定のコンテンツタイプの短期リコール(5分)で行われている。
一方、広告業界は長期記憶力(数時間以上)だけを気にしており、広告はほとんど常にマルチモーダルであり、異なるモダリティ(テキスト、画像、ビデオ)を通して物語を描いている。
この動機により,276ブランドにわたる1203人の参加者と2205人の広告からなる,最初の大規模記憶力調査を行った。
さまざまな参加者のサブポピュレーションや広告タイプに対する統計的テストを実行すると、広告を記憶できるもの、コンテンツと人的要素の両方について興味深い洞察が得られます。
例えば、速く動くシーンを持つコマーシャルを使うブランドは、遅いシーン(p=8e-10)よりも記憶に残るものが多く、広告ブロッカーを使う人は、そうでないもの(p=5e-3)よりも広告の数が少ないことが分かる。
さらに、特定のオーディエンスに対するマーケティング資料の記憶可能性のシミュレーションを行い、最終的に作成を支援する動機から、LLMの現実的知識と視覚的エンコーダの視覚的知識を活用してコンテンツの記憶可能性を予測する新しいモデル、Sharinganを提案する。
文献中の顕著な記憶可能性データセット(画像とビデオの両方)すべてでモデルをテストし、それらすべてにわたって最先端のアートを実現する。
メモリタイプ、モダリティ、ブランド、アーキテクチャの選択に関する広範なアブレーション研究を行い、メモリを駆動する要因に関する洞察を得ます。
関連論文リスト
- CTR-Driven Advertising Image Generation with Multimodal Large Language Models [53.40005544344148]
本稿では,Click-Through Rate (CTR) を主目的とし,マルチモーダル大言語モデル(MLLM)を用いた広告画像の生成について検討する。
生成した画像のCTRをさらに改善するため、強化学習(RL)を通して事前学習したMLLMを微調整する新たな報酬モデルを提案する。
本手法は,オンラインとオフラインの両方で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-02-05T09:06:02Z) - Advertiser Content Understanding via LLMs for Google Ads Safety [9.376815457907195]
本研究では,Large Language Models (LLM) を用いたコンテンツポリシー違反に対する広告主の意図を理解する手法を提案する。
広告、ドメイン、ターゲティング情報等からの複数の信号に基づいて広告主のコンテンツプロファイルを生成する。
最小限のプロンプトチューニングの後、我々の手法は小さなテストセットで95%の精度に達することができた。
論文 参考訳(メタデータ) (2024-09-10T00:57:51Z) - Discrimination through Image Selection by Job Advertisers on Facebook [79.21648699199648]
求人広告における新たな差別手段の出現状況について検討する。
ターゲティングとデリバリーの両方を組み合わせ、求人広告画像の特定の人口層を不均等に表現したり排除したりする。
私たちはFacebook Ad Libraryを使って、このプラクティスの有病率を実証しています。
論文 参考訳(メタデータ) (2023-06-13T03:43:58Z) - Problematic Advertising and its Disparate Exposure on Facebook [15.667983888666312]
我々はFacebookを調査し、問題のあるオンライン広告の理解における重要なギャップを調査する。
高齢者や少数民族の広告が特に表示されることがわかりました。
問題のある広告の22%が広告主から特定のターゲティングをしていないことを考えると、広告配信アルゴリズムがこれらの広告の偏りのある分布に重要な役割を果たしたと推測する。
論文 参考訳(メタデータ) (2023-06-09T17:23:59Z) - Boost CTR Prediction for New Advertisements via Modeling Visual Content [55.11267821243347]
広告の視覚的内容を利用してCTR予測モデルの性能を向上させる。
過去に蓄積された履歴的ユーザ・アドインタラクションに基づいて,各ビジュアルIDの埋め込みを学習する。
Baiduオンライン広告のCTR予測モデルにビジュアルIDを埋め込んだ後、広告の平均CTRは1.46%改善し、総料金は1.10%増加した。
論文 参考訳(メタデータ) (2022-09-23T17:08:54Z) - Lessons from the AdKDD'21 Privacy-Preserving ML Challenge [57.365745458033075]
W3Cの顕著な提案では、過去のディスプレイの集計された、差別化されたプライベートなレポートを通じてのみ広告信号を共有することができる。
この提案を広く研究するために、AdKDD'21でオープンなプライバシ保護機械学習チャレンジが行われた。
重要な発見は、大量の集約されたデータの小さな集合が存在する場合の学習モデルは驚くほど効率的で安価であることである。
論文 参考訳(メタデータ) (2022-01-31T11:09:59Z) - How Much Ad Viewability is Enough? The Effect of Display Ad Viewability
on Advertising Effectiveness [0.0]
広告インプレッションが35万以上ある大規模観測データセットを分析した。
長い露光時間と100%可視画素は、ビュースルーを生成するのに最適ではないように見える。
最も高いビュースルーレートは、50%/1, 50%/5, 75%/1, 75%/5の比較的低いピクセル/秒の組み合わせで生成される。
論文 参考訳(メタデータ) (2020-08-26T05:49:57Z) - An Empirical Study of In-App Advertising Issues Based on Large Scale App
Review Analysis [67.58267006314415]
われわれは,App StoreとGoogle Playの広告関連ユーザフィードバックに関する大規模分析を行った。
広告関連レビュー36,309件の統計分析から,利用者は使用中のユニーク広告数や広告表示頻度を最も気にしていることがわかった。
いくつかの広告イシュータイプは、他の広告イシューよりも開発者によって迅速に対処される。
論文 参考訳(メタデータ) (2020-08-22T05:38:24Z) - Learning to Create Better Ads: Generation and Ranking Approaches for Ad
Creative Refinement [26.70647666598025]
i)新しい広告テキストを生成すること、(ii)新しい広告テキストにキーフレーズを推奨すること、(iii)画像タグ(画像中のオブジェクト)を推奨すること。
複数の広告主が実施したA/Bテストに基づいて、劣悪な広告クリエイティブと優良な広告クリエイティブのペアワイズな例を作成します。
また、Yahoo Geminiの広告プラットフォームからのデータを使って、実験から広く適用可能な洞察を共有しています。
論文 参考訳(メタデータ) (2020-08-17T16:46:28Z) - Recommending Themes for Ad Creative Design via Visual-Linguistic
Representations [27.13752835161338]
広告クリエイティブストラテジストのためのテーマ(キーワード)推薦システムを提案する。
テーマレコメンデータは、視覚的質問応答(VQA)タスクの結果の集約に基づく。
クロスモーダル表現は分類精度とランク付け精度を著しく向上させることを示した。
論文 参考訳(メタデータ) (2020-01-20T18:04:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。