論文の概要: Billion-user Customer Lifetime Value Prediction: An Industrial-scale
Solution from Kuaishou
- arxiv url: http://arxiv.org/abs/2208.13358v1
- Date: Mon, 29 Aug 2022 04:05:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 14:23:20.018745
- Title: Billion-user Customer Lifetime Value Prediction: An Industrial-scale
Solution from Kuaishou
- Title(参考訳): 10億人の顧客生涯価値予測 - kuaishouによる産業規模のソリューション
- Authors: Kunpeng Li, Guangcui Shao, Naijun Yang, Xiao Fang, Yang Song
- Abstract要約: 顧客ライフタイムバリュー(英:Customer Life Time Value、LTV)は、単一のユーザがビジネスにもたらすことができる総収入である。
LTVのモデリングは、複雑で変更可能なデータ分散のため、難しい問題である。
我々は、異なる時間帯のLTV間の順序依存をモデル化する秩序依存モノトニックネットワーク(ODMN)を導入する。
- 参考スコア(独自算出の注目度): 19.31651596803956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Customer Life Time Value (LTV) is the expected total revenue that a single
user can bring to a business. It is widely used in a variety of business
scenarios to make operational decisions when acquiring new customers. Modeling
LTV is a challenging problem, due to its complex and mutable data distribution.
Existing approaches either directly learn from posterior feature distributions
or leverage statistical models that make strong assumption on prior
distributions, both of which fail to capture those mutable distributions. In
this paper, we propose a complete set of industrial-level LTV modeling
solutions. Specifically, we introduce an Order Dependency Monotonic Network
(ODMN) that models the ordered dependencies between LTVs of different time
spans, which greatly improves model performance. We further introduce a Multi
Distribution Multi Experts (MDME) module based on the Divide-and-Conquer idea,
which transforms the severely imbalanced distribution modeling problem into a
series of relatively balanced sub-distribution modeling problems hence greatly
reduces the modeling complexity. In addition, a novel evaluation metric Mutual
Gini is introduced to better measure the distribution difference between the
estimated value and the ground-truth label based on the Lorenz Curve. The ODMN
framework has been successfully deployed in many business scenarios of
Kuaishou, and achieved great performance. Extensive experiments on real-world
industrial data demonstrate the superiority of the proposed methods compared to
state-of-the-art baselines including ZILN and Two-Stage XGBoost models.
- Abstract(参考訳): customer life time value (ltv) は、1人のユーザーがビジネスに持ち込むことのできる総収入である。
さまざまなビジネスシナリオにおいて、新規顧客獲得時の運用上の決定に広く使用されている。
LTVのモデリングは、複雑で変更可能なデータ分散のため、難しい問題である。
既存のアプローチでは、後方特徴分布から直接学習するか、以前の分布を強く仮定した統計モデルを活用するかのどちらかで、どちらも変更可能な分布を捉えることができない。
本稿では,産業レベルのLTVモデリングソリューションの完全なセットを提案する。
具体的には、異なる時間帯のLTV間の順序依存をモデル化し、モデル性能を大幅に改善する秩序依存モノトニックネットワーク(ODMN)を提案する。
さらに,重度不均衡な分散モデリング問題を,相対的にバランスの取れた部分分散モデリング問題に変換し,モデリングの複雑さを大幅に低減する,分割・解法に基づくマルチ分散マルチエキスパート(mdme)モジュールを導入する。
さらに,ロレンツ曲線に基づいて,推定値と接地トラスラベルとの分布差をよりよく測定するために,新しい評価基準であるMutual Giniを導入する。
ODMNフレームワークはKuaishouの多くのビジネスシナリオでうまくデプロイされ、優れたパフォーマンスを実現しています。
ZILNやTwo-Stage XGBoostモデルを含む最先端のベースラインと比較して,実世界の産業データに対する広範な実験により提案手法の優位性が示された。
関連論文リスト
- A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - MoD: A Distribution-Based Approach for Merging Large Language Models [0.0]
大規模言語モデル(LLM)は、多くの専門的なタスク固有の変種の開発を可能にした。
LLMをマージするための新しいアプローチであるTextitMixture of Distributions (MoD)フレームワークを提案する。
従来の重量測定法とは異なり、MoDは個々のモデルの特殊能力を効果的に保存する。
論文 参考訳(メタデータ) (2024-11-01T07:05:29Z) - xGen-MM (BLIP-3): A Family of Open Large Multimodal Models [157.44696790158784]
本稿では,LMM(Large Multimodal Models)を開発するためのフレームワークであるxGen-MMを紹介する。
このフレームワークは、慎重にキュレートされたデータセット、トレーニングレシピ、モデルアーキテクチャ、結果のLMMスイートで構成されている。
私たちのモデルは、シングルイメージとマルチイメージのベンチマークを含む、さまざまなタスクにわたって厳格な評価を受けています。
論文 参考訳(メタデータ) (2024-08-16T17:57:01Z) - MAP: Low-compute Model Merging with Amortized Pareto Fronts via Quadratic Approximation [80.47072100963017]
Amortized Pareto Front (MAP) を用いた新しい低演算アルゴリズム Model Merging を導入する。
MAPは、複数のモデルをマージするためのスケーリング係数のセットを効率的に識別し、関連するトレードオフを反映する。
また,タスク数が比較的少ないシナリオではベイジアンMAP,タスク数の多い状況ではNested MAPを導入し,計算コストを削減した。
論文 参考訳(メタデータ) (2024-06-11T17:55:25Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - Robust Fine-Tuning of Vision-Language Models for Domain Generalization [6.7181844004432385]
ファンデーションモデルは、分散シフトの下で、印象的なゼロショット推論能力とロバスト性を持っている。
一般的な視覚言語基盤モデルCLIPの微調整のための新しいレシピを提案する。
私たちの実験では、ゼロショットCLIPは、より複雑なベンチマークでトレーニング済みのビジョンモデルのパフォーマンスと一致しないが、少数ショットCLIPの微調整は、ビジョンのみのパフォーマンスよりも優れていることを示した。
論文 参考訳(メタデータ) (2023-11-03T20:50:40Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - Optimal Transport Model Distributional Robustness [33.24747882707421]
これまでの研究は主に、データ空間における分散ロバスト性を活用することに焦点を当ててきた。
我々は、最適なロバストな中心モデル分布を学習できる理論を開発する。
我々のフレームワークはSharpness-Aware Minimizationの確率的拡張と見なすことができる。
論文 参考訳(メタデータ) (2023-06-07T06:15:12Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Deep incremental learning models for financial temporal tabular datasets
with distribution shifts [0.9790236766474201]
このフレームワークは、単純な基本的なビルディングブロック(決定木)を使用して、必要な複雑さの自己相似モデルを構築する。
我々は,NumeraiデータセットでトレーニングしたXGBoostモデルを用いて提案手法を実証し,異なるモデルスナップショット上での2層のXGBoostモデルの深部アンサンブルが高品質な予測を提供することを示す。
論文 参考訳(メタデータ) (2023-03-14T14:10:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。