論文の概要: Forecasting Clicks in Digital Advertising: Multimodal Inputs and Interpretable Outputs
- arxiv url: http://arxiv.org/abs/2509.09683v1
- Date: Fri, 15 Aug 2025 10:01:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-21 06:05:45.710224
- Title: Forecasting Clicks in Digital Advertising: Multimodal Inputs and Interpretable Outputs
- Title(参考訳): デジタル広告における予測クリック:マルチモーダル入力と解釈出力
- Authors: Briti Gangopadhyay, Zhao Wang, Shingo Takamatsu,
- Abstract要約: 本稿では,クリックデータと実世界の広告キャンペーンのテキストログを組み合わせ,数値予測とともに人間解釈可能な説明を生成するフレームワークを提案する。
大規模産業データセットの実験により,本手法は精度と推論品質の両方において,ベースラインを上回っていることが示された。
- 参考スコア(独自算出の注目度): 6.729587417269126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Forecasting click volume is a key task in digital advertising, influencing both revenue and campaign strategy. Traditional time series models rely solely on numerical data, often overlooking rich contextual information embedded in textual elements, such as keyword updates. We present a multimodal forecasting framework that combines click data with textual logs from real-world ad campaigns and generates human-interpretable explanations alongside numeric predictions. Reinforcement learning is used to improve comprehension of textual information and enhance fusion of modalities. Experiments on a large-scale industry dataset show that our method outperforms baselines in both accuracy and reasoning quality.
- Abstract(参考訳): クリック量の予測はデジタル広告における重要なタスクであり、収益とキャンペーン戦略の両方に影響を与える。
伝統的な時系列モデルは数値データのみに依存しており、しばしばキーワード更新のようなテキスト要素に埋め込まれたリッチなコンテキスト情報を見渡す。
本稿では,実際の広告キャンペーンのテキストログとクリックデータを組み合わせたマルチモーダル予測フレームワークを提案する。
強化学習は、テキスト情報の理解を改善し、モダリティの融合を強化するために用いられる。
大規模産業データセットを用いた実験により,本手法は精度と推論品質の両方において,ベースラインを上回っていることがわかった。
関連論文リスト
- SUMMA: A Multimodal Large Language Model for Advertisement Summarization [15.514886325064792]
本研究では,ビデオ広告を商品価値の高いコンテンツを強調する要約に加工するモデルであるSUMMAを提案する。
SUMMAは2段階の訓練戦略-マルチモーダル指導型微調整と強化学習によって開発される。
オンライン実験は、統計的に広告収入が1.5%増加したことを示している。
論文 参考訳(メタデータ) (2025-08-28T09:19:53Z) - Does Multimodality Lead to Better Time Series Forecasting? [84.74978289870155]
このようなマルチモーダル積分がどのような条件で常に得られるかは、まだ不明である。
本稿では,時系列とテキスト表現をアライメントするアライメント・ベース・メソッドと,予測のための大規模言語モデルを直接促進するプロンプト・ベース・メソッドの2つの一般的なマルチモーダル予測パラダイムを評価する。
その結果,1)高容量テキストモデル,(2)比較的弱い時系列モデル,(3)適切な整合戦略などにより,テキスト情報を組み込むことが最も有用であることが示唆された。
論文 参考訳(メタデータ) (2025-06-20T23:55:56Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Enhancing Cross-Modal Contextual Congruence for Crowdfunding Success using Knowledge-infused Learning [3.1021397647755613]
この研究は、知識グラフからの外部コモンセンス知識を取り入れ、コンパクトなビジュアル言語モデル(VLM)を用いたマルチモーダルデータの表現を強化する。
以上の結果から,外部知識がテキストと画像モダリティのセマンティックギャップを橋渡しし,知識を注入した表現により,ベースライン上でのキャンペーン成功の予測性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-02-06T00:51:27Z) - Cross-Media Keyphrase Prediction: A Unified Framework with
Multi-Modality Multi-Head Attention and Image Wordings [63.79979145520512]
マルチメディア投稿におけるキーワード予測におけるテキストと画像の併用効果について検討する。
複雑なマルチメディアインタラクションを捉えるために,M3H-Att(Multi-Modality Multi-Head Attention)を提案する。
我々のモデルは,従来の注目ネットワークに基づいて,過去の技術状況よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-11-03T08:44:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。