論文の概要: Leaving No One Behind: A Multi-Scenario Multi-Task Meta Learning
Approach for Advertiser Modeling
- arxiv url: http://arxiv.org/abs/2201.06814v1
- Date: Tue, 18 Jan 2022 08:35:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 17:13:23.601018
- Title: Leaving No One Behind: A Multi-Scenario Multi-Task Meta Learning
Approach for Advertiser Modeling
- Title(参考訳): 背後には誰もいない: 広告主モデリングのためのマルチシナリオマルチタスクメタ学習アプローチ
- Authors: Qianqian Zhang, Xinru Liao, Quan Liu, Jian Xu, Bo Zheng
- Abstract要約: TaobaoやAmazonといった多くのeコマースプラットフォームでは、広告主が重要な役割を果たす。
複数の広告シナリオにおける複数のタスクを同時に予測するマルチシナリオマルチタスクメタ学習手法(M2M)を提案する。
- 参考スコア(独自算出の注目度): 24.297122086590345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advertisers play an essential role in many e-commerce platforms like Taobao
and Amazon. Fulfilling their marketing needs and supporting their business
growth is critical to the long-term prosperity of platform economies. However,
compared with extensive studies on user modeling such as click-through rate
predictions, much less attention has been drawn to advertisers, especially in
terms of understanding their diverse demands and performance. Different from
user modeling, advertiser modeling generally involves many kinds of tasks (e.g.
predictions of advertisers' expenditure, active-rate, or total impressions of
promoted products). In addition, major e-commerce platforms often provide
multiple marketing scenarios (e.g. Sponsored Search, Display Ads, Live
Streaming Ads) while advertisers' behavior tend to be dispersed among many of
them. This raises the necessity of multi-task and multi-scenario consideration
in comprehensive advertiser modeling, which faces the following challenges:
First, one model per scenario or per task simply doesn't scale; Second, it is
particularly hard to model new or minor scenarios with limited data samples;
Third, inter-scenario correlations are complicated, and may vary given
different tasks. To tackle these challenges, we propose a multi-scenario
multi-task meta learning approach (M2M) which simultaneously predicts multiple
tasks in multiple advertising scenarios.
- Abstract(参考訳): TaobaoやAmazonといった多くのeコマースプラットフォームでは、広告主が重要な役割を果たす。
マーケティングニーズをフルフィルし、ビジネスの成長を支えることは、プラットフォーム経済の長期的な繁栄に不可欠である。
しかし、クリックスルー率予測のようなユーザーモデリングに関する広範な研究と比較すると、広告主にとって特にその多様な要求や性能の理解において、はるかに少ない注意が向けられている。
ユーザー・モデリングと異なり、広告主・モデリングは一般的に様々なタスク(例えば、広告主の支出の予測、アクティブ・レート、プロモーション商品の総印象)を伴っている。
さらに、主要なeコマースプラットフォームは、しばしば複数のマーケティングシナリオ(例えば、スポンサード検索、ディスプレイ広告、ライブストリーミング広告)を提供するが、広告主の行動は、その多くに分散する傾向がある。
これは、包括的な広告主モデリングにおいて、マルチタスクとマルチシナリオの考慮の必要性を提起する。第一に、シナリオ毎またはタスク毎のモデルが単にスケールしない;第二に、限られたデータサンプルで新しいシナリオやマイナーなシナリオをモデル化するのは特に困難;第三に、シナリオ間相関は複雑で、異なるタスクを与えられた場合があります。
そこで本研究では,複数の広告シナリオにおいて複数のタスクを同時に予測するマルチタスクメタラーニング手法(m2m)を提案する。
関連論文リスト
- An Interactive Agent Foundation Model [50.50659114031731]
本稿では,AIエージェントを訓練するための新しいマルチタスクエージェントトレーニングパラダイムを用いた対話型エージェント基礎モデルを提案する。
トレーニングパラダイムは、視覚マスク付きオートエンコーダ、言語モデリング、次世代の予測など、多様な事前学習戦略を統一する。
私たちは、ロボティクス、ゲームAI、ヘルスケアという3つの異なる領域でフレームワークのパフォーマンスを実演します。
論文 参考訳(メタデータ) (2024-02-08T18:58:02Z) - Generative Multimodal Models are In-Context Learners [62.31022638619485]
我々は37億のパラメータを持つ生成的マルチモーダルモデルであるEmu2を紹介し、大規模マルチモーダルシーケンスで訓練する。
Emu2は、マルチモーダルなインコンテキスト学習能力を示し、オンザフライ推論を必要とするタスクを解決しようとさえしている。
論文 参考訳(メタデータ) (2023-12-20T18:59:58Z) - Lightweight In-Context Tuning for Multimodal Unified Models [57.10831399642176]
MultiModal In-conteXt Tuning (M$2$IXT)は、マルチモーダル統一モデルのICL機能を強化する軽量モジュールである。
最大50Kのマルチモーダルデータをチューニングすると、M$2$IXTは数ショットのICL性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-10-08T10:47:24Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - Multi-queue Momentum Contrast for Microvideo-Product Retrieval [57.527227171945796]
マルチモーダルインスタンスとマルチモーダルインスタンス間の検索を探索する最初の試みであるマイクロビデオ製品検索タスクを定式化する。
双方向検索のためのMulti-Queue Momentum Contrast(MQMC)ネットワークという新しい手法を提案する。
マルチキューを用いた識別的選択戦略は、カテゴリによって異なる負の重要性を区別するために用いられる。
論文 参考訳(メタデータ) (2022-12-22T03:47:14Z) - MultiViz: An Analysis Benchmark for Visualizing and Understanding
Multimodal Models [103.9987158554515]
MultiVizは、解釈可能性の問題を4段階に足場化することで、マルチモーダルモデルの振る舞いを分析する手法である。
MultiVizの相補的な段階は、モデル予測をシミュレートし、機能に解釈可能な概念を割り当て、モデル誤分類のエラー解析を行い、エラー解析からモデルデバッグへの洞察を利用することを可能にする。
論文 参考訳(メタデータ) (2022-06-30T18:42:06Z) - An Analysis Of Entire Space Multi-Task Models For Post-Click Conversion
Prediction [3.2979460528864926]
大規模広告プラットフォーム上でのモバイルアプリ広告におけるポストクリック変換イベント(インストール)の確率を近似することを検討する。
CTRタスクからCVRタスクへ、いくつかの異なるアプローチが、同様のポジティブなレベルの移行をもたらすことを示す。
我々の発見は、マルチタスク学習が現実世界の大規模アプリケーションで関連するイベントをモデル化する上で、合理的なアプローチであることを示す証拠が増えていることを示唆している。
論文 参考訳(メタデータ) (2021-08-18T13:39:50Z) - M2Lens: Visualizing and Explaining Multimodal Models for Sentiment
Analysis [28.958168542624062]
感情分析のためのマルチモーダルモデルの可視化と説明を行う対話型視覚分析システムM2Lensを提案する。
M2Lensは、グローバル、サブセット、および局所レベルでのモーダル内およびモーダル間相互作用の説明を提供する。
論文 参考訳(メタデータ) (2021-07-17T15:54:27Z) - Interpretable Deep Learning Model for Online Multi-touch Attribution [14.62385029537631]
本稿では,深層学習モデルとオンラインマルチタッチ属性の解釈のための付加的特徴説明モデルを組み合わせたDeepMTAという新しいモデルを提案する。
MTAの最初の解釈可能なディープラーニングモデルとして、DeepMTAは、顧客ジャーニーにおける3つの重要な特徴について検討している。
実データセットの評価は、提案した変換予測モデルが91%の精度を達成することを示している。
論文 参考訳(メタデータ) (2020-03-26T23:21:40Z) - Adversarial Multimodal Representation Learning for Click-Through Rate
Prediction [16.10640369157054]
本稿では,Click-Through Rate (CTR)予測タスクのための新しいマルチモーダル適応表現ネットワーク(MARN)を提案する。
マルチモーダルアテンションネットワークは、まず、各項目の複数のモーダルティの重みを、そのモーダル比の特徴に応じて算出する。
マルチモーダル対向ネットワークは、二重識別器戦略を導入するモードイン表現を学習する。
論文 参考訳(メタデータ) (2020-03-07T15:50:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。