論文の概要: Multimodal Deep Learning of Word-of-Mouth Text and Demographics to
Predict Customer Rating: Handling Consumer Heterogeneity in Marketing
- arxiv url: http://arxiv.org/abs/2401.11888v1
- Date: Mon, 22 Jan 2024 12:28:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 14:10:33.424898
- Title: Multimodal Deep Learning of Word-of-Mouth Text and Demographics to
Predict Customer Rating: Handling Consumer Heterogeneity in Marketing
- Title(参考訳): ユーザレーティング予測のためのマルチモーダル深層学習 : マーケティングにおける消費者の不均一性への対応
- Authors: Junichiro Niimi
- Abstract要約: 今日、多くの消費者がオンラインプラットフォーム上で特定の製品の評価を投稿している。
本研究では,オンライン製品レビューと消費者プロファイル情報のマルチモーダル学習により,消費者の不均一性を考慮した製品評価モデルを構築した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the marketing field, understanding consumer heterogeneity, which is the
internal or psychological difference among consumers that cannot be captured by
behavioral logs, has long been a critical challenge. However, a number of
consumers today usually post their evaluation on the specific product on the
online platform, which can be the valuable source of such unobservable
differences among consumers. Several previous studies have shown the validity
of the analysis on text modality, but on the other hand, such analyses may not
necessarily demonstrate sufficient predictive accuracy for text alone, as they
may not include information readily available from cross-sectional data, such
as consumer profile data. In addition, recent advances in machine learning
techniques, such as large-scale language models (LLMs) and multimodal learning
have made it possible to deal with the various kind of dataset simultaneously,
including textual data and the traditional cross-sectional data, and the joint
representations can be effectively obtained from multiple modalities.
Therefore, this study constructs a product evaluation model that takes into
account consumer heterogeneity by multimodal learning of online product reviews
and consumer profile information. We also compare multiple models using
different modalities or hyper-parameters to demonstrate the robustness of
multimodal learning in marketing analysis.
- Abstract(参考訳): マーケティングの分野では,行動ログでは捉えられない消費者の内的・心理的差異である消費者の不均一性を理解することが,長年にわたって重要な課題であった。
しかし、今日の多くの消費者は、通常、オンラインプラットフォーム上の特定の製品に対する評価を投稿している。
過去のいくつかの研究では、テキストのモダリティに関する分析の有効性が示されているが、消費者プロファイルデータのような横断データから得られる情報を含まないため、このような分析は必ずしもテキスト単独で十分な予測精度を示すわけではない。
さらに,大規模言語モデル(LLM)やマルチモーダル学習といった機械学習技術の進歩により,テキストデータや従来の断面データなど,さまざまな種類のデータセットを同時に扱えるようになり,複数のモーダルから共同表現が効果的に得られるようになった。
そこで本研究では,オンライン製品レビューと消費者プロファイル情報のマルチモーダル学習による消費者の不均一性を考慮した製品評価モデルを構築した。
また,異なるモダリティやハイパーパラメータを用いた複数のモデルを比較し,マーケティング分析におけるマルチモーダル学習の堅牢性を示す。
関連論文リスト
- Multimodal Clinical Trial Outcome Prediction with Large Language Models [30.201189349890267]
臨床試験の結果を予測するために, LIFTED(Multimodal Mixed-of-Experts)アプローチを提案する。
LIFTEDは、異なるモダリティデータを自然言語記述に変換することで統一する。
そして、LIFTEDは統合ノイズ耐性エンコーダを構築し、モーダル固有の言語記述から情報を抽出する。
論文 参考訳(メタデータ) (2024-02-09T16:18:38Z) - AiGen-FoodReview: A Multimodal Dataset of Machine-Generated Restaurant
Reviews and Images on Social Media [57.70351255180495]
AiGen-FoodReviewは、20,144のレストランレビューイメージペアからなるデータセットである。
FLAVAで99.80%のマルチモーダル精度を達成し,一様・多モーダル検出モデルについて検討する。
この論文は、データセットをオープンソース化し、偽レビュー検出装置を公開し、非モーダルかつマルチモーダルな偽レビュー検出タスクでの使用を推奨し、合成データと真正データにおける言語的特徴と視覚的特徴を評価することで貢献する。
論文 参考訳(メタデータ) (2024-01-16T20:57:36Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - Machine Learning and Consumer Data [0.4873362301533825]
デジタル革命は人間の行動のデジタル化につながり、不整合なスケールで観測可能な行動を理解するという前例のない機会を生み出した。
クラウドファンディングやクラウドソーシングといった新興現象は、新たな行動パターンを導入しながら、消費者の行動をさらに明るくしている。
消費者データ分析に使われる従来の手法は、新興データソースの幅、精度、スケールを扱うのに不足している。
論文 参考訳(メタデータ) (2023-06-25T03:58:15Z) - Multi-Modal Experience Inspired AI Creation [33.34566822058209]
シーケンシャルなマルチモーダル情報に基づいてテキストを生成する方法について検討する。
まず,マルチモーダルアテンションネットワークを備えたマルチチャネルシーケンス・ツー・シーケンスアーキテクチャを設計する。
次に、逐次入力に適したカリキュラム負サンプリング戦略を提案する。
論文 参考訳(メタデータ) (2022-09-02T11:50:41Z) - Encoding Domain Knowledge in Multi-view Latent Variable Models: A
Bayesian Approach with Structured Sparsity [7.811916700683125]
MuVI はドメインインフォームド・マルチビュー潜在変数モデルのための新しいアプローチである。
私たちのモデルは、機能セットの形でノイズの多いドメインの専門知識を統合することができることを実証しています。
論文 参考訳(メタデータ) (2022-04-13T08:22:31Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Perceptual Score: What Data Modalities Does Your Model Perceive? [73.75255606437808]
モデルが入力特徴の異なる部分集合に依存する度合いを評価する指標である知覚スコアを導入する。
近年,視覚的質問応答に対するマルチモーダルモデルでは,前者よりも視覚的データを知覚しにくい傾向がみられた。
知覚スコアを使用することで、スコアをデータサブセットのコントリビューションに分解することで、モデルのバイアスを分析することもできる。
論文 参考訳(メタデータ) (2021-10-27T12:19:56Z) - Evaluating the Interpretability of Generative Models by Interactive
Reconstruction [30.441247705313575]
生成モデル表現の人間解釈可能性の定量化を課題とする。
このタスクのパフォーマンスは、ベースラインアプローチよりも、絡み合ったモデルと絡み合ったモデルをはるかに確実に区別する。
論文 参考訳(メタデータ) (2021-02-02T02:38:14Z) - Relating by Contrasting: A Data-efficient Framework for Multimodal
Generative Models [86.9292779620645]
生成モデル学習のための対照的なフレームワークを開発し、モダリティ間の共通性だけでなく、「関連」と「関連しない」マルチモーダルデータの区別によってモデルを訓練することができる。
提案手法では, 生成モデルを用いて, 関係のないサンプルから関連サンプルを正確に識別し, ラベルのない多モードデータの利用が可能となる。
論文 参考訳(メタデータ) (2020-07-02T15:08:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。