論文の概要: Learning Parameters for a Generalized Vidale-Wolfe Response Model with
Flexible Ad Elasticity and Word-of-Mouth
- arxiv url: http://arxiv.org/abs/2202.13566v1
- Date: Mon, 28 Feb 2022 06:31:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 16:46:53.824181
- Title: Learning Parameters for a Generalized Vidale-Wolfe Response Model with
Flexible Ad Elasticity and Word-of-Mouth
- Title(参考訳): フレキシブル適応弾性とワード・オブ・ムートをもつ一般化ビデール・ウルフ応答モデルの学習パラメータ
- Authors: Yanwu Yang, Baozhu Feng, Daniel Zeng
- Abstract要約: Vidale-Wolfe(GVW)モデルは、広告主の弾力性を表す2つの有用な指標と、ワード・オブ・マウス(WoM)効果を含んでいる。
本稿では,そのパラメータを学習するためのディープニューラルネットワーク(DNN)に基づく推定手法を提案する。
調査の結果,広告の弾力性指数とWoM指数の両方が広告反応に有意な影響を及ぼすことが示された。
- 参考スコア(独自算出の注目度): 1.052782170493037
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this research, we investigate a generalized form of Vidale-Wolfe (GVW)
model. One key element of our modeling work is that the GVW model contains two
useful indexes representing advertiser's elasticity and the word-of-mouth (WoM)
effect, respectively. Moreover, we discuss some desirable properties of the GVW
model, and present a deep neural network (DNN)-based estimation method to learn
its parameters. Furthermore, based on three realworld datasets, we conduct
computational experiments to validate the GVW model and identified properties.
In addition, we also discuss potential advantages of the GVW model over
econometric models. The research outcome shows that both the ad elasticity
index and the WoM index have significant influences on advertising responses,
and the GVW model has potential advantages over econometric models of
advertising, in terms of several interesting phenomena drawn from practical
advertising situations. The GVW model and its deep learning-based estimation
method provide a basis to support big data-driven advertising analytics and
decision makings; in the meanwhile, identified properties and experimental
findings of this research illuminate critical managerial insights for
advertisers in various advertising forms.
- Abstract(参考訳): 本研究では,Vidale-Wolfeモデル(GVW)の一般化形式について検討する。
我々のモデリング研究の重要な要素は、GVWモデルが広告主の弾力性を表す2つの有用な指標と、ワード・オブ・マウス(WoM)効果を含んでいることである。
さらに,GVWモデルの望ましい性質について考察し,そのパラメータを学習するためのディープニューラルネットワーク(DNN)に基づく推定手法を提案する。
さらに,3つの実世界のデータセットに基づいて,GVWモデルの検証と特性の同定を行う。
さらに,econometricモデルに対するgvwモデルの潜在的利点についても論じる。
調査の結果,広告の弾力性指数とWoM指数の両方が広告反応に有意な影響を与え,GVWモデルは実用的な広告状況から引き起こされるいくつかの興味深い現象の観点から,広告の計量モデルよりも潜在的に有利であることが示された。
GVWモデルとその深層学習に基づく評価手法は,ビッグデータによる広告分析と意思決定を支援する基盤を提供する。
関連論文リスト
- Fine-tuning large language models for domain adaptation: Exploration of training strategies, scaling, model merging and synergistic capabilities [4.389938747401259]
本研究は、材料科学や工学などの分野における大規模言語モデル(LLM)に対する微調整戦略の効果について考察する。
複数の微調整モデルの融合は、親モデルの個々の貢献を超越した能力の出現につながる可能性がある。
論文 参考訳(メタデータ) (2024-09-05T11:49:53Z) - Model Attribution in LLM-Generated Disinformation: A Domain Generalization Approach with Supervised Contrastive Learning [26.02988481241285]
現代の大きな言語モデル(LLM)は、人間のような品質で偽情報を生成する。
偽情報を生成する方法の多様性は、正確なソース属性を複雑にする。
本稿では,モデル帰属の概念を領域一般化問題として紹介する。
論文 参考訳(メタデータ) (2024-07-31T00:56:09Z) - Multi-modal Auto-regressive Modeling via Visual Words [96.25078866446053]
本稿では,視覚的特徴を大規模多モードモデルの語彙上の確率分布にマッピングする視覚トークンの概念を提案する。
さらに、LMM内の意味空間における視覚的特徴の分布と、視覚情報を表現するためにテキスト埋め込みを使用することの可能性について検討する。
論文 参考訳(メタデータ) (2024-03-12T14:58:52Z) - Revealing Multimodal Contrastive Representation Learning through Latent
Partial Causal Models [85.67870425656368]
マルチモーダルデータに特化して設計された統一因果モデルを提案する。
マルチモーダル・コントラスト表現学習は潜在結合変数の同定に優れていることを示す。
実験では、仮定が破られたとしても、我々の発見の堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - Learning Generalizable Models via Disentangling Spurious and Enhancing
Potential Correlations [28.38895118573957]
ドメイン一般化 (Domain Generalization, DG) は、任意の未知のターゲットドメインに適切に一般化できるように、複数のソースドメイン上でモデルをトレーニングすることを目的としている。
サンプルや機能など、複数の視点を採用することは、効果的であることが証明されている。
本稿では,サンプルと特徴の両方の観点から,ドメイン不変表現の獲得を促すことによって,モデルの一般化能力の向上に焦点をあてる。
論文 参考訳(メタデータ) (2024-01-11T09:00:22Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - Incorporating Domain Knowledge in Deep Neural Networks for Discrete
Choice Models [0.5801044612920815]
本稿では,DCMにおけるデータ駆動型アプローチの可能性を拡張するフレームワークを提案する。
これには、必要な関係を表す擬似データサンプルと、その実現度を測定する損失関数が含まれる。
ケーススタディは、このフレームワークの個別選択分析の可能性を示している。
論文 参考訳(メタデータ) (2023-05-30T12:53:55Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Meta-learning using privileged information for dynamics [66.32254395574994]
Neural ODE Processモデルを拡張して、Learning Using Privileged Information設定内の追加情報を使用します。
シミュレーション動的タスクの精度とキャリブレーションを向上した実験により拡張性を検証する。
論文 参考訳(メタデータ) (2021-04-29T12:18:02Z) - DeepCOVIDNet: An Interpretable Deep Learning Model for Predictive
Surveillance of COVID-19 Using Heterogeneous Features and their Interactions [2.30238915794052]
今後の新型コロナウイルス感染者の増加範囲を予測するための深層学習モデルを提案する。
様々なソースから収集したデータを用いて、米国全郡で7日以内に感染が拡大する範囲を推定する。
論文 参考訳(メタデータ) (2020-07-31T23:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。