論文の概要: MAC: A Conversion Rate Prediction Benchmark Featuring Labels Under Multiple Attribution Mechanisms
- arxiv url: http://arxiv.org/abs/2603.02184v1
- Date: Mon, 02 Mar 2026 18:51:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:57.038382
- Title: MAC: A Conversion Rate Prediction Benchmark Featuring Labels Under Multiple Attribution Mechanisms
- Title(参考訳): MAC: 複数帰属メカニズム下でラベルを構成する変換速度予測ベンチマーク
- Authors: Jinqi Wu, Sishuo Chen, Zhangming Chan, Yong Bai, Lei Zhang, Sheng Chen, Chenghuan Hou, Xiang-Rong Sheng, Han Zhu, Jian Xu, Bo Zheng, Chaoyou Fu,
- Abstract要約: マルチアトリビューション学習(MAL)は、複数のアトリビューション機構によって得られる変換ラベルから学習することで、モデル性能を向上させる。
マルチ属性ベンチマーク(MAC)は,複数の属性機構のラベルを特徴とする最初の公開CVRデータセットである。
PyMALも開発しています。PyMALはオープンソースのライブラリで、幅広いベースラインメソッドをカバーしています。
- 参考スコア(独自算出の注目度): 26.416305996561565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-attribution learning (MAL), which enhances model performance by learning from conversion labels yielded by multiple attribution mechanisms, has emerged as a promising learning paradigm for conversion rate (CVR) prediction. However, the conversion labels in public CVR datasets are generated by a single attribution mechanism, hindering the development of MAL approaches. To address this data gap, we establish the Multi-Attribution Benchmark (MAC), the first public CVR dataset featuring labels from multiple attribution mechanisms. Besides, to promote reproducible research on MAL, we develop PyMAL, an open-source library covering a wide array of baseline methods. We conduct comprehensive experimental analyses on MAC and reveal three key insights: (1) MAL brings consistent performance gains across different attribution settings, especially for users featuring long conversion paths. (2) The performance growth scales up with objective complexity in most settings; however, when predicting first-click conversion targets, simply adding auxiliary objectives is counterproductive, underscoring the necessity of careful selection of auxiliary objectives. (3) Two architectural design principles are paramount: first, to fully learn the multi-attribution knowledge, and second, to fully leverage this knowledge to serve the main task. Motivated by these findings, we propose Mixture of Asymmetric Experts (MoAE), an effective MAL approach incorporating multi-attribution knowledge learning and main task-centric knowledge utilization. Experiments on MAC show that MoAE substantially surpasses the existing state-of-the-art MAL method. We believe that our benchmark and insights will foster future research in the MAL field. Our MAC benchmark and the PyMAL algorithm library are publicly available at https://github.com/alimama-tech/PyMAL.
- Abstract(参考訳): 複数の属性機構によって得られる変換ラベルから学習することでモデル性能を向上させるマルチ属性学習(MAL)が,変換率(CVR)予測のための有望な学習パラダイムとして登場した。
しかし、パブリックなCVRデータセットの変換ラベルは単一の属性機構によって生成され、MALアプローチの開発を妨げる。
このデータギャップに対処するため、複数の属性機構のラベルを特徴とする最初の公開CVRデータセットであるMulti-Attribution Benchmark(MAC)を確立する。
さらに,MALの再現可能な研究を促進するために,多種多様なベースライン手法をカバーするオープンソースライブラリであるPyMALを開発した。
我々はMACに関する総合的な実験分析を行い、(1)MALは様々な属性設定、特に長い変換パスを特徴とするユーザに対して、一貫したパフォーマンス向上をもたらす、という3つの重要な洞察を明らかにした。
2) 性能の増大は, ほとんどの設定において客観的な複雑性とともに増大するが, 初回変換目標の予測においては, 補助目的を単に追加するだけでは非生産的であり, 補助目的を慎重に選択する必要性が強調される。
(3) アーキテクチャ設計の原則は、まず、マルチ属性の知識を十分に習得し、次に、この知識を十分に活用して主要なタスクを遂行する、という2つの原則が最重要である。
本研究の目的は,多属性知識学習とタスク中心知識活用を併用した効果的なMAL手法であるMAL(Mixture of Asymmetric Experts)を提案することである。
MACの実験では、MoAEが既存の最先端のMAL法を大幅に上回っていることが示されている。
我々は、我々のベンチマークと洞察が、MAL分野における将来の研究を促進すると信じている。
私たちのMACベンチマークとPyMALアルゴリズムライブラリはhttps://github.com/alimama-tech/PyMALで公開されています。
関連論文リスト
- Meta-Learning Linear Models for Molecular Property Prediction [3.9685594339912633]
本稿では,メタラーニングのための線形アルゴリズムであるLAMeLを紹介する。
本手法は,データセットの領域によって,標準リッジ回帰よりも1.1~25倍の性能向上を実現している。
論文 参考訳(メタデータ) (2025-09-16T20:41:45Z) - See Beyond a Single View: Multi-Attribution Learning Leads to Better Conversion Rate Prediction [30.31722186766052]
コンバージョンレート(CVR)予測はオンライン広告システムの中核的な要素である。
従来のアプローチでは、単一の生産クリティカルな属性メカニズムからラベルへのモデルトレーニングが制限されていた。
本稿では,CVR予測のための新しい多属性学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-21T04:05:31Z) - MPFNet: A Multi-Prior Fusion Network with a Progressive Training Strategy for Micro-Expression Recognition [2.719872133434811]
本稿では,MPFNet(Multi-Prior Fusion Network)を提案する。
発達心理学にインスパイアされたMPFNet--MPFNet-PとMPFNet--Cの2つの変種を,幼児の認知並列処理と階層処理の2つの基本モードに対応して提示する。
論文 参考訳(メタデータ) (2025-06-11T13:39:41Z) - Towards Lifecycle Unlearning Commitment Management: Measuring Sample-level Unlearning Completeness [30.596695293390415]
補間近似測定(Interpolated Approximate Measurement, IAM)は、非学習推論用に設計されたフレームワークである。
IAMは、クエリされたサンプルに対するモデルの一般化適合行動ギャップを補間することにより、サンプルレベルの未学習完全性を定量化する。
IAMを最近の近似アンラーニングアルゴリズムに適用し、オーバーアンラーニングとアンダーアンラーニングの両方のリスクを明らかにする。
論文 参考訳(メタデータ) (2025-06-06T14:22:18Z) - MCP-RADAR: A Multi-Dimensional Benchmark for Evaluating Tool Use Capabilities in Large Language Models [33.250579401886206]
本稿では,モデルコンテキストプロトコル(MCP)フレームワークにおいて,LLM(Large Language Models)の性能を評価するために設計された最初の総合ベンチマークであるMPP-RADARを紹介する。
MCP-RADARは、数学的推論、Web検索、Eメール、カレンダー、ファイル管理、端末操作の6つの領域にまたがる507のタスクからなる挑戦的なデータセットを備えている。
主観的な人的評価やバイナリ成功のメトリクスに依存する従来のベンチマークとは異なり、MPP-RADARは複数のタスク領域にわたる客観的な定量測定を採用する。
論文 参考訳(メタデータ) (2025-05-22T14:02:37Z) - MAmmoTH-VL: Eliciting Multimodal Reasoning with Instruction Tuning at Scale [66.73529246309033]
MLLM(Multimodal large language model)は、多モーダルタスクにおいて大きな可能性を秘めている。
既存の命令チューニングデータセットは、中間的合理性のないフレーズレベルの答えのみを提供する。
そこで本研究では,大規模マルチモーダル・インストラクション・チューニング・データセットを構築するためのスケーラブルで費用対効果の高い手法を提案する。
論文 参考訳(メタデータ) (2024-12-06T18:14:24Z) - Task-customized Masked AutoEncoder via Mixture of Cluster-conditional
Experts [104.9871176044644]
Masked Autoencoder (MAE) は,モデル事前学習において有望な結果が得られる自己教師型学習手法である。
我々は、新しいMAEベースの事前学習パラダイム、Mixture of Cluster-conditional Experts (MoCE)を提案する。
MoCEは、クラスタ条件ゲートを使用して、各専門家にセマンティックなイメージのみをトレーニングする。
論文 参考訳(メタデータ) (2024-02-08T03:46:32Z) - USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - MASTER: Multi-task Pre-trained Bottlenecked Masked Autoencoders are
Better Dense Retrievers [140.0479479231558]
本研究では,様々な事前学習タスクをマルチタスク事前学習モデル(MASTER)に統合することを目的とする。
MASTERは共有エンコーダのマルチデコーダアーキテクチャを利用して、タスク全体にわたる豊富なセマンティック情報を高密度ベクトルに圧縮する表現ボトルネックを構築することができる。
論文 参考訳(メタデータ) (2022-12-15T13:57:07Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。