論文の概要: MindMem: Multimodal for Predicting Advertisement Memorability Using LLMs and Deep Learning
- arxiv url: http://arxiv.org/abs/2502.18371v1
- Date: Tue, 25 Feb 2025 17:09:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 18:40:40.607734
- Title: MindMem: Multimodal for Predicting Advertisement Memorability Using LLMs and Deep Learning
- Title(参考訳): MindMem: LLMとディープラーニングを用いたマルチモーダル-メモリ可能性予測
- Authors: Sepehr Asgarian, Qayam Jetha, Jouhyun Jeon,
- Abstract要約: 我々は,広告記憶可能性のマルチモーダル予測モデルであるMindMemを提案する。
テキスト、視覚、聴覚データを統合することで、MindMemは最先端のパフォーマンスを達成する。
我々はMindMem-ReAdを紹介し、これは大規模言語モデルに基づくシミュレーションを用いて広告内容と配置を最適化する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In the competitive landscape of advertising, success hinges on effectively navigating and leveraging complex interactions among consumers, advertisers, and advertisement platforms. These multifaceted interactions compel advertisers to optimize strategies for modeling consumer behavior, enhancing brand recall, and tailoring advertisement content. To address these challenges, we present MindMem, a multimodal predictive model for advertisement memorability. By integrating textual, visual, and auditory data, MindMem achieves state-of-the-art performance, with a Spearman's correlation coefficient of 0.631 on the LAMBDA and 0.731 on the Memento10K dataset, consistently surpassing existing methods. Furthermore, our analysis identified key factors influencing advertisement memorability, such as video pacing, scene complexity, and emotional resonance. Expanding on this, we introduced MindMem-ReAd (MindMem-Driven Re-generated Advertisement), which employs Large Language Model-based simulations to optimize advertisement content and placement, resulting in up to a 74.12% improvement in advertisement memorability. Our results highlight the transformative potential of Artificial Intelligence in advertising, offering advertisers a robust tool to drive engagement, enhance competitiveness, and maximize impact in a rapidly evolving market.
- Abstract(参考訳): 広告の競争の世界では、成功は消費者、広告主、広告プラットフォーム間の複雑な相互作用を効果的にナビゲートし活用することに集中している。
これらの多面的相互作用は、広告主に消費者行動のモデリング、ブランドリコールの強化、広告コンテンツの調整のための戦略を最適化させる。
これらの課題に対処するために,広告記憶可能性のマルチモーダル予測モデルであるMindMemを提案する。
テキスト、視覚、聴覚データを統合することで、MindMemは最先端のパフォーマンスを達成し、LAMBDAではSpearmanの相関係数0.631、Memento10Kデータセットでは0.731、既存の手法を一貫して上回っている。
さらに,ビデオペーシング,シーンの複雑さ,感情共鳴など,広告の記憶可能性に影響を及ぼす重要な要因について分析を行った。
そこで我々はMindMem-ReAd(MindMem-Driven Re- generated—)を導入し,広告内容と配置の最適化にLarge Language Modelベースのシミュレーションを適用し,74.12%の広告記憶性向上を実現した。
我々の結果は、広告における人工知能の変革の可能性を強調し、広告主にエンゲージメントを促進し、競争力を高め、急速に発展する市場への影響を最大化するための堅牢なツールを提供する。
関連論文リスト
- CTR-Driven Advertising Image Generation with Multimodal Large Language Models [53.40005544344148]
本稿では,Click-Through Rate (CTR) を主目的とし,マルチモーダル大言語モデル(MLLM)を用いた広告画像の生成について検討する。
生成した画像のCTRをさらに改善するため、強化学習(RL)を通して事前学習したMLLMを微調整する新たな報酬モデルを提案する。
本手法は,オンラインとオフラインの両方で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-02-05T09:06:02Z) - Parallel Ranking of Ads and Creatives in Real-Time Advertising Systems [20.78133992969317]
広告とクリエイティビティランキングのオンライン並列推定のための新しいアーキテクチャを初めて提案する。
オンラインアーキテクチャは、全体的なレイテンシを低減しつつ、洗練されたパーソナライズされたクリエイティブモデリングを可能にする。
CTR推定のためのオフラインジョイントモデルは、広告とクリエイティブの相互認識と協調最適化を可能にする。
論文 参考訳(メタデータ) (2023-12-20T04:05:21Z) - A Multimodal Analysis of Influencer Content on Twitter [40.41635575764701]
個人的な意見と商業的コンテンツの宣伝の線は、しばしばぼやけている。
これにより、インフルエンサー広告に関連する規制コンプライアンス違反の自動検出が困難になる。
我々は15,998のインフルエンサー投稿を商業的および非商業的カテゴリにマッピングした新しいTwitter(現在のX)データセットを紹介した。
論文 参考訳(メタデータ) (2023-09-06T15:07:23Z) - Long-Term Ad Memorability: Understanding & Generating Memorable Ads [54.23854539909078]
マーケティングやブランドビルディングにおける長期記憶の重要性にもかかわらず、これまで広告の記憶可能性に関する大規模な研究は行われていない。
276のブランドをカバーする1749の参加者と2205の広告からなる,最初の記憶可能性データセットであるLAMBDAをリリースする。
異なる参加者のサブポピュレーションや広告タイプに対する統計的テストを実行すると、広告を記憶可能なものにするための興味深い洞察がたくさん見つかる。
本稿では,自動アノテートデータを活用することで,高品質な記憶可能な広告生成モデルを構築するためのスケーラブルな手法を提案する。
論文 参考訳(メタデータ) (2023-09-01T10:27:04Z) - Persuasion Strategies in Advertisements [68.70313043201882]
我々は,説得戦略の広範な語彙を導入し,説得戦略を付加した最初の広告画像コーパスを構築した。
次に,マルチモーダル学習による説得戦略予測のタスクを定式化する。
我々は、Fortune-500社の1600件の広告キャンペーンについて、現実世界でケーススタディを実施している。
論文 参考訳(メタデータ) (2022-08-20T07:33:13Z) - Personality-Driven Social Multimedia Content Recommendation [68.46899477180837]
人格特性がコンテンツレコメンデーションモデルに与える影響を,新しいパーソナリティ駆動型マルチビューコンテンツレコメンデーションシステムを適用して検討する。
実験結果と実世界のケーススタディは、PersiCが効率的な人格駆動型マルチビューコンテンツレコメンデーションを行う能力だけでなく、実用的なデジタル広告戦略レコメンデーションを可能にすることを実証している。
論文 参考訳(メタデータ) (2022-07-25T14:37:18Z) - A Multimodal Framework for Video Ads Understanding [64.70769354696019]
広告ビデオコンテンツの構造化分析能力を向上させるためのマルチモーダルシステムの開発を行う。
2021年のTAAC最終リーダーボードでは, 位置推定と予測精度を考慮した0.2470のスコアを得た。
論文 参考訳(メタデータ) (2021-08-29T16:06:00Z) - Ranking Micro-Influencers: a Novel Multi-Task Learning and Interpretable
Framework [69.5850969606885]
マルチメディアコンテンツに基づくマイクロインフルエンサーランキングにおける技術状況を改善するための,新しいマルチタスク学習フレームワークを提案する。
精度とモデルの複雑さの両面で大きな改善が見られた。
この研究で提示されるランキングと解釈のテクニックは、任意のマルチメディアランキングタスクに一般化することができる。
論文 参考訳(メタデータ) (2021-07-29T13:04:25Z) - Predicting Online Video Advertising Effects with Multimodal Deep
Learning [33.20913249848369]
ビデオ広告のクリックスルー率(CTR)を予測し,CTRを決定する要因を解析する手法を提案する。
本稿では,オンラインビデオ広告のマルチモーダル性を生かして,効果を正確に予測するための最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-22T06:24:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。