論文の概要: Leaving No One Behind: A Multi-Scenario Multi-Task Meta Learning
Approach for Advertiser Modeling
- arxiv url: http://arxiv.org/abs/2201.06814v1
- Date: Tue, 18 Jan 2022 08:35:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 17:13:23.601018
- Title: Leaving No One Behind: A Multi-Scenario Multi-Task Meta Learning
Approach for Advertiser Modeling
- Title(参考訳): 背後には誰もいない: 広告主モデリングのためのマルチシナリオマルチタスクメタ学習アプローチ
- Authors: Qianqian Zhang, Xinru Liao, Quan Liu, Jian Xu, Bo Zheng
- Abstract要約: TaobaoやAmazonといった多くのeコマースプラットフォームでは、広告主が重要な役割を果たす。
複数の広告シナリオにおける複数のタスクを同時に予測するマルチシナリオマルチタスクメタ学習手法(M2M)を提案する。
- 参考スコア(独自算出の注目度): 24.297122086590345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advertisers play an essential role in many e-commerce platforms like Taobao
and Amazon. Fulfilling their marketing needs and supporting their business
growth is critical to the long-term prosperity of platform economies. However,
compared with extensive studies on user modeling such as click-through rate
predictions, much less attention has been drawn to advertisers, especially in
terms of understanding their diverse demands and performance. Different from
user modeling, advertiser modeling generally involves many kinds of tasks (e.g.
predictions of advertisers' expenditure, active-rate, or total impressions of
promoted products). In addition, major e-commerce platforms often provide
multiple marketing scenarios (e.g. Sponsored Search, Display Ads, Live
Streaming Ads) while advertisers' behavior tend to be dispersed among many of
them. This raises the necessity of multi-task and multi-scenario consideration
in comprehensive advertiser modeling, which faces the following challenges:
First, one model per scenario or per task simply doesn't scale; Second, it is
particularly hard to model new or minor scenarios with limited data samples;
Third, inter-scenario correlations are complicated, and may vary given
different tasks. To tackle these challenges, we propose a multi-scenario
multi-task meta learning approach (M2M) which simultaneously predicts multiple
tasks in multiple advertising scenarios.
- Abstract(参考訳): TaobaoやAmazonといった多くのeコマースプラットフォームでは、広告主が重要な役割を果たす。
マーケティングニーズをフルフィルし、ビジネスの成長を支えることは、プラットフォーム経済の長期的な繁栄に不可欠である。
しかし、クリックスルー率予測のようなユーザーモデリングに関する広範な研究と比較すると、広告主にとって特にその多様な要求や性能の理解において、はるかに少ない注意が向けられている。
ユーザー・モデリングと異なり、広告主・モデリングは一般的に様々なタスク(例えば、広告主の支出の予測、アクティブ・レート、プロモーション商品の総印象)を伴っている。
さらに、主要なeコマースプラットフォームは、しばしば複数のマーケティングシナリオ(例えば、スポンサード検索、ディスプレイ広告、ライブストリーミング広告)を提供するが、広告主の行動は、その多くに分散する傾向がある。
これは、包括的な広告主モデリングにおいて、マルチタスクとマルチシナリオの考慮の必要性を提起する。第一に、シナリオ毎またはタスク毎のモデルが単にスケールしない;第二に、限られたデータサンプルで新しいシナリオやマイナーなシナリオをモデル化するのは特に困難;第三に、シナリオ間相関は複雑で、異なるタスクを与えられた場合があります。
そこで本研究では,複数の広告シナリオにおいて複数のタスクを同時に予測するマルチタスクメタラーニング手法(m2m)を提案する。
関連論文リスト
- AdaptAgent: Adapting Multimodal Web Agents with Few-Shot Learning from Human Demonstrations [18.820883566002543]
MLLM(Multimodal Large Language Models)を利用する最先端のマルチモーダルWebエージェントは、多くのWebタスクを自律的に実行することができる。
Webエージェントを構築するための現在の戦略は、(i)基礎となるMLLMの一般化可能性と、(ii)Web関連タスクにおけるMLLMの大規模微調整によるその操縦性に依存している。
そこで我々はAdaptAgentフレームワークを導入し、プロプライエタリなマルチモーダルWebエージェントとオープンなマルチモーダルWebエージェントの両方が、人間のデモをほとんど使わずに新しいWebサイトやドメインに適応できるようにする。
論文 参考訳(メタデータ) (2024-11-20T16:54:15Z) - Multi-Modal Generative AI: Multi-modal LLM, Diffusion and Beyond [48.43910061720815]
マルチモーダル生成AIは、学術と産業の両方で注目を集めている。
理解と生成の両方に統一されたモデルを持つことは可能か?
論文 参考訳(メタデータ) (2024-09-23T13:16:09Z) - A Practitioner's Guide to Continual Multimodal Pretraining [83.63894495064855]
マルチモーダル・ファンデーション・モデルは視覚と言語を交わす多くのアプリケーションに役立っている。
モデルを更新し続けるために、継続事前トレーニングの研究は主に、大規模な新しいデータに対する頻度の低い、差別的な更新、あるいは頻繁に行われるサンプルレベルの更新のシナリオを探求する。
本稿では,FoMo-in-Flux(FoMo-in-Flux)について紹介する。
論文 参考訳(メタデータ) (2024-08-26T17:59:01Z) - AutoTask: Task Aware Multi-Faceted Single Model for Multi-Task Ads Relevance [2.380819994407948]
本稿では,タスク認識機能の組み合わせとタスク間相互作用モデリングを行う,新しい多面的アテンションモデルを提案する。
本手法は,特徴量とタスク次元の両面における自己回帰的注意を伴う「言語」モデリングとして特徴組合せ問題を定式化したものである。
論文 参考訳(メタデータ) (2024-07-09T05:13:45Z) - HEMM: Holistic Evaluation of Multimodal Foundation Models [91.60364024897653]
マルチモーダル・ファンデーション・モデルは、画像、ビデオ、オーディオ、その他の知覚モダリティと共にテキストをホリスティックに処理することができる。
モデリング決定、タスク、ドメインの範囲を考えると、マルチモーダル基盤モデルの進歩を特徴づけ、研究することは困難である。
論文 参考訳(メタデータ) (2024-07-03T18:00:48Z) - Generative Multimodal Models are In-Context Learners [60.50927925426832]
我々は37億のパラメータを持つ生成的マルチモーダルモデルであるEmu2を紹介し、大規模マルチモーダルシーケンスで訓練する。
Emu2は、マルチモーダルなインコンテキスト学習能力を示し、オンザフライ推論を必要とするタスクを解決しようとさえしている。
論文 参考訳(メタデータ) (2023-12-20T18:59:58Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - MultiViz: An Analysis Benchmark for Visualizing and Understanding
Multimodal Models [103.9987158554515]
MultiVizは、解釈可能性の問題を4段階に足場化することで、マルチモーダルモデルの振る舞いを分析する手法である。
MultiVizの相補的な段階は、モデル予測をシミュレートし、機能に解釈可能な概念を割り当て、モデル誤分類のエラー解析を行い、エラー解析からモデルデバッグへの洞察を利用することを可能にする。
論文 参考訳(メタデータ) (2022-06-30T18:42:06Z) - Interpretable Deep Learning Model for Online Multi-touch Attribution [14.62385029537631]
本稿では,深層学習モデルとオンラインマルチタッチ属性の解釈のための付加的特徴説明モデルを組み合わせたDeepMTAという新しいモデルを提案する。
MTAの最初の解釈可能なディープラーニングモデルとして、DeepMTAは、顧客ジャーニーにおける3つの重要な特徴について検討している。
実データセットの評価は、提案した変換予測モデルが91%の精度を達成することを示している。
論文 参考訳(メタデータ) (2020-03-26T23:21:40Z) - Adversarial Multimodal Representation Learning for Click-Through Rate
Prediction [16.10640369157054]
本稿では,Click-Through Rate (CTR)予測タスクのための新しいマルチモーダル適応表現ネットワーク(MARN)を提案する。
マルチモーダルアテンションネットワークは、まず、各項目の複数のモーダルティの重みを、そのモーダル比の特徴に応じて算出する。
マルチモーダル対向ネットワークは、二重識別器戦略を導入するモードイン表現を学習する。
論文 参考訳(メタデータ) (2020-03-07T15:50:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。