論文の概要: No One Left Behind: How to Exploit the Incomplete and Skewed Multi-Label Data for Conversion Rate Prediction
- arxiv url: http://arxiv.org/abs/2512.13300v1
- Date: Mon, 15 Dec 2025 13:14:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.673287
- Title: No One Left Behind: How to Exploit the Incomplete and Skewed Multi-Label Data for Conversion Rate Prediction
- Title(参考訳): 不完全でスキューなマルチラベルデータを爆発させる方法と変換率予測
- Authors: Qinglin Jia, Zhaocheng Du, Chuhan Wu, Huifeng Guo, Ruiming Tang, Shuting Shi, Muyu Zhang,
- Abstract要約: ほとんどの現実世界のオンライン広告システムでは、広告主は様々な顧客獲得目標を持つ。
一般的な解決策は、マルチタスク学習を使用して、クリック後のデータの統一モデルをトレーニングし、さまざまなターゲットに対する変換率(CVR)を見積もることである。
実際には、CVR予測は、多くの広告主がプライバシやその他の制約により、一部のユーザー変換アクションのみを提出するので、欠落したコンバージョンデータに遭遇することが多い。
- 参考スコア(独自算出の注目度): 48.578518946398354
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In most real-world online advertising systems, advertisers typically have diverse customer acquisition goals. A common solution is to use multi-task learning (MTL) to train a unified model on post-click data to estimate the conversion rate (CVR) for these diverse targets. In practice, CVR prediction often encounters missing conversion data as many advertisers submit only a subset of user conversion actions due to privacy or other constraints, making the labels of multi-task data incomplete. If the model is trained on all available samples where advertisers submit user conversion actions, it may struggle when deployed to serve a subset of advertisers targeting specific conversion actions, as the training and deployment data distributions are mismatched. While considerable MTL efforts have been made, a long-standing challenge is how to effectively train a unified model with the incomplete and skewed multi-label data. In this paper, we propose a fine-grained Knowledge transfer framework for Asymmetric Multi-Label data (KAML). We introduce an attribution-driven masking strategy (ADM) to better utilize data with asymmetric multi-label data in training. However, the more relaxed masking in ADM is a double-edged sword: it provides additional training signals but also introduces noise due to skewed data. To address this, we propose a hierarchical knowledge extraction mechanism (HKE) to model the sample discrepancy within the target task tower. Finally, to maximize the utility of unlabeled samples, we incorporate ranking loss strategy to further enhance our model. The effectiveness of KAML has been demonstrated through comprehensive evaluations on offline industry datasets and online A/B tests, which show significant performance improvements over existing MTL baselines.
- Abstract(参考訳): ほとんどの現実世界のオンライン広告システムでは、広告主は様々な顧客獲得目標を持つ。
一般的な解決策は、マルチタスク学習(MTL)を使用して、クリック後のデータの統一モデルをトレーニングし、これらの多様なターゲットに対する変換率(CVR)を見積もることである。
実際には、CVR予測は、多くの広告主がプライバシやその他の制約によるユーザ変換アクションのサブセットのみを提出するので、欠落したコンバージョンデータに遭遇することが多い。
モデルが、広告主がユーザのコンバージョンアクションを提出する利用可能なすべてのサンプルに基づいてトレーニングされている場合、トレーニングとデプロイメントデータディストリビューションのミスマッチが原因で、特定のコンバージョンアクションをターゲットにした広告主のサブセットを提供するためにデプロイされた時に苦労する可能性がある。
MTLの取り組みはかなりのものだが、長年にわたる課題は、不完全で歪んだマルチラベルデータで統一モデルを効果的に訓練する方法である。
本稿では,非対称なマルチラベルデータ(KAML)のためのきめ細かい知識伝達フレームワークを提案する。
本研究では,非対称なマルチラベルデータを用いたトレーニングにおいて,属性駆動型マスキング戦略(ADM)を導入する。
しかし、ADMのよりリラックスしたマスキングは二重刃の剣であり、追加の訓練信号を提供するが、歪んだデータによるノイズも引き起こす。
そこで本研究では,対象のタスクタワー内におけるサンプルの相違をモデル化するための階層的知識抽出機構を提案する。
最後に、ラベルなしサンプルの有用性を最大化するために、ランキング損失戦略を導入し、モデルをさらに強化する。
KAMLの有効性は、オフライン業界データセットとオンラインA/Bテストの包括的な評価を通じて実証されており、既存のMTLベースラインよりも大幅にパフォーマンスが向上している。
関連論文リスト
- DMGIN: How Multimodal LLMs Enhance Large Recommendation Models for Lifelong User Post-click Behaviors [5.465812199325145]
長いクリック後の動作シーケンスは、深刻なパフォーマンス問題を引き起こす。
Deep Multimodal Group Interest Network (DMGIN)はClick-Through Rate (CTR)予測を改善する。
論文 参考訳(メタデータ) (2025-08-29T17:28:07Z) - Adapt-$\infty$: Scalable Continual Multimodal Instruction Tuning via Dynamic Data Selection [89.42023974249122]
Adapt-$infty$は、生涯のインストラクションチューニングのための、新しいマルチウェイおよびアダプティブなデータ選択アプローチである。
勾配に基づくサンプルベクトルをグループ化して擬似スキルクラスタを構築する。
セレクタエキスパートのプールから各スキルクラスタの最高のパフォーマンスデータセレクタを選択する。
このデータセレクタは、トレーニングのために各スキルクラスタから最も重要なサンプルのサブセットをサンプリングする。
論文 参考訳(メタデータ) (2024-10-14T15:48:09Z) - Pairwise Ranking Loss for Multi-Task Learning in Recommender Systems [8.824514065551865]
オンライン広告システムでは、Click-Through Rate (CTR) や Conversion Rate (CVR) といったタスクが同時に MTL 問題として扱われることが多い。
本研究では,変換に対応する露光ラベルを決定指標とみなす。
モデル予測間でのtextbfairtextbfwise textbf ranking(PWiseR)損失を計算し、タスク固有の損失を新たに導入する。
論文 参考訳(メタデータ) (2024-06-04T09:52:41Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - The Minority Matters: A Diversity-Promoting Collaborative Metric
Learning Algorithm [154.47590401735323]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:02:18Z) - An Analysis Of Entire Space Multi-Task Models For Post-Click Conversion
Prediction [3.2979460528864926]
大規模広告プラットフォーム上でのモバイルアプリ広告におけるポストクリック変換イベント(インストール)の確率を近似することを検討する。
CTRタスクからCVRタスクへ、いくつかの異なるアプローチが、同様のポジティブなレベルの移行をもたらすことを示す。
我々の発見は、マルチタスク学習が現実世界の大規模アプリケーションで関連するイベントをモデル化する上で、合理的なアプローチであることを示す証拠が増えていることを示唆している。
論文 参考訳(メタデータ) (2021-08-18T13:39:50Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Interpretable Deep Learning Model for Online Multi-touch Attribution [14.62385029537631]
本稿では,深層学習モデルとオンラインマルチタッチ属性の解釈のための付加的特徴説明モデルを組み合わせたDeepMTAという新しいモデルを提案する。
MTAの最初の解釈可能なディープラーニングモデルとして、DeepMTAは、顧客ジャーニーにおける3つの重要な特徴について検討している。
実データセットの評価は、提案した変換予測モデルが91%の精度を達成することを示している。
論文 参考訳(メタデータ) (2020-03-26T23:21:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。