論文の概要: OptDist: Learning Optimal Distribution for Customer Lifetime Value Prediction
- arxiv url: http://arxiv.org/abs/2408.08585v1
- Date: Fri, 16 Aug 2024 07:39:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 16:17:46.684491
- Title: OptDist: Learning Optimal Distribution for Customer Lifetime Value Prediction
- Title(参考訳): OptDist: 顧客生涯価値予測のための最適分布学習
- Authors: Yunpeng Weng, Xing Tang, Zhenhao Xu, Fuyuan Lyu, Dugang Liu, Zexu Sun, Xiuqiang He,
- Abstract要約: CLTV(Customer Lifetime Value)予測は、ビジネスアプリケーションにおいて重要なタスクである。
CLTV予測のための新しい最適分布モデル OptDist を提案する。
- 参考スコア(独自算出の注目度): 10.858387857011898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Customer Lifetime Value (CLTV) prediction is a critical task in business applications. Accurately predicting CLTV is challenging in real-world business scenarios, as the distribution of CLTV is complex and mutable. Firstly, there is a large number of users without any consumption consisting of a long-tailed part that is too complex to fit. Secondly, the small set of high-value users spent orders of magnitude more than a typical user leading to a wide range of the CLTV distribution which is hard to capture in a single distribution. Existing approaches for CLTV estimation either assume a prior probability distribution and fit a single group of distribution-related parameters for all samples, or directly learn from the posterior distribution with manually predefined buckets in a heuristic manner. However, all these methods fail to handle complex and mutable distributions. In this paper, we propose a novel optimal distribution selection model OptDist for CLTV prediction, which utilizes an adaptive optimal sub-distribution selection mechanism to improve the accuracy of complex distribution modeling. Specifically, OptDist trains several candidate sub-distribution networks in the distribution learning module (DLM) for modeling the probability distribution of CLTV. Then, a distribution selection module (DSM) is proposed to select the sub-distribution for each sample, thus making the selection automatically and adaptively. Besides, we design an alignment mechanism that connects both modules, which effectively guides the optimization. We conduct extensive experiments on both two public and one private dataset to verify that OptDist outperforms state-of-the-art baselines. Furthermore, OptDist has been deployed on a large-scale financial platform for customer acquisition marketing campaigns and the online experiments also demonstrate the effectiveness of OptDist.
- Abstract(参考訳): CLTV(Customer Lifetime Value)予測は、ビジネスアプリケーションにおいて重要なタスクである。
CLTVの分布は複雑で可変であるため、現実のビジネスシナリオでは正確な予測は困難である。
第一に、長い尾の部分が複雑すぎるため、何の消費も必要としないユーザーが多数いる。
第二に、高価値ユーザの小さなセットは、通常のユーザよりも桁違いに多くのオーダーを費やし、単一のディストリビューションではキャプチャが難しいCLTVディストリビューションの幅広い範囲に導いた。
CLTV推定のための既存のアプローチは、事前確率分布を仮定し、全てのサンプルに対して分布関連パラメータの1つのグループに適合するか、または、手動で予め定義されたバケットを用いて後続分布から直接ヒューリスティックな方法で学習する。
しかし、これらの手法は複雑で可変な分布を扱えない。
本稿では,CLTV予測のための新しい最適分布選択モデルOptDistを提案する。
具体的には、CLTVの確率分布をモデル化するために、分布学習モジュール(DLM)にいくつかの候補サブディストリビューションネットワークを訓練する。
次に, 分布選択モジュール (DSM) を提案し, 各サンプルのサブ分布を選択し, 自動的に適応的に選択する。
さらに,両モジュールを接続するアライメント機構を設計し,最適化を効果的に導く。
2つのパブリックデータセットと1つのプライベートデータセットで広範な実験を行い、OpsDistが最先端のベースラインを上回っていることを確認します。
さらに、OpsDistは顧客獲得マーケティングキャンペーンのための大規模な金融プラットフォームにデプロイされており、オンライン実験もOpsDistの有効性を実証している。
関連論文リスト
- Debiasing Federated Learning with Correlated Client Participation [25.521881752822164]
本稿では,FLのクライアント参加をマルコフ連鎖としてモデル化する理論的枠組みを紹介する。
すべてのクライアントは、再参加する前に最低限の$R$ラウンド(最小分離)を待たなければならない。
我々は、不偏の最適解に確実に収束するFedAvgの効果的な脱バイアスアルゴリズムを開発する。
論文 参考訳(メタデータ) (2024-10-02T03:30:53Z) - Adaptive Test-Time Personalization for Federated Learning [51.25437606915392]
テスト時パーソナライズド・フェデレーション・ラーニング(TTPFL)と呼ばれる新しい設定を導入する。
TTPFLでは、クライアントはテスト期間中にラベル付きデータに頼ることなく、教師なしの方法でグローバルモデルをローカルに適応する。
本稿では,ソースドメイン間の分散シフトから,モデル内の各モジュールの適応率を適応的に学習する ATP という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-28T20:42:47Z) - Enhanced Federated Optimization: Adaptive Unbiased Client Sampling with Reduced Variance [37.646655530394604]
Federated Learning(FL)は、ローカルデータを収集することなく、複数のデバイスでグローバルモデルをトレーニングする分散学習パラダイムである。
独立サンプリング手法を用いて,最初の適応型クライアントサンプリング器K-Vibを提案する。
K-Vibは、一連の通信予算の中で、後悔すべき$tildemathcalObig(Nfrac13Tfrac23/Kfrac43big)$の線形スピードアップを達成する。
論文 参考訳(メタデータ) (2023-10-04T10:08:01Z) - Large Language Models Are Not Robust Multiple Choice Selectors [117.72712117510953]
複数選択質問(MCQ)は、大規模言語モデル(LLM)の評価において、一般的なが重要なタスク形式として機能する。
この研究は、現代のLLMが、その固有の「選択バイアス」によるオプション位置変化に対して脆弱であることを示している。
そこで本研究では,オプションIDに対する事前バイアスを全体予測分布から分離するPriDeという,ラベルのない推論時間脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T17:44:56Z) - ProbVLM: Probabilistic Adapter for Frozen Vision-Language Models [69.50316788263433]
本稿では,事前学習された視覚言語モデルの埋め込みに対する確率分布を推定する確率的アダプタProbVLMを提案する。
本稿では,検索タスクにおける不確実性埋め込みのキャリブレーションを定量化し,ProbVLMが他の手法よりも優れていることを示す。
本稿では,大規模な事前学習型潜伏拡散モデルを用いて,埋め込み分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-01T18:16:06Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Visual Prompt Based Personalized Federated Learning [83.04104655903846]
pFedPTと呼ばれる画像分類タスクのための新しいPFLフレームワークを提案し、クライアントのローカルデータ配信情報を暗黙的に表現するためにパーソナライズされた視覚的プロンプトを利用する。
CIFAR10とCIFAR100データセットの実験では、pFedPTは様々な設定でいくつかの最先端(SOTA)PFLアルゴリズムより優れていた。
論文 参考訳(メタデータ) (2023-03-15T15:02:15Z) - AdaptDHM: Adaptive Distribution Hierarchical Model for Multi-Domain CTR
Prediction [4.299153274884263]
本稿では,適応分布階層モデル (Adaptive Distribution Hierarchical Model, AdaptDHM) という,エレガントで柔軟なマルチディストリビューション・モデリング手法を提案する。
本モデルでは, 予測精度が向上し, トレーニング期間中の時間コストは, 他のモデルに比べて50%以上低下する。
論文 参考訳(メタデータ) (2022-11-22T09:10:37Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Billion-user Customer Lifetime Value Prediction: An Industrial-scale
Solution from Kuaishou [19.31651596803956]
顧客ライフタイムバリュー(英:Customer Life Time Value、LTV)は、単一のユーザがビジネスにもたらすことができる総収入である。
LTVのモデリングは、複雑で変更可能なデータ分散のため、難しい問題である。
我々は、異なる時間帯のLTV間の順序依存をモデル化する秩序依存モノトニックネットワーク(ODMN)を導入する。
論文 参考訳(メタデータ) (2022-08-29T04:05:21Z) - DELTA: Diverse Client Sampling for Fasting Federated Learning [9.45219058010201]
フェデレーテッド・ラーニング(FL)では、コミュニケーションの負担を効率的に軽減するために、部分的なクライアント参加が広く採用されている。
既存のサンプリング手法はバイアスを受けるか、より高速な収束のためにさらに最適化することができる。
DELTAは,これらの問題を緩和するための非バイアスサンプリング方式である。
論文 参考訳(メタデータ) (2022-05-27T12:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。