論文の概要: Exploit Customer Life-time Value with Memoryless Experiments
- arxiv url: http://arxiv.org/abs/2201.06254v1
- Date: Mon, 17 Jan 2022 07:43:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 15:30:56.890555
- Title: Exploit Customer Life-time Value with Memoryless Experiments
- Title(参考訳): 顧客生涯価値をメモリレス実験で活用する
- Authors: Zizhao Zhang, Yifei Zhao, Guangda Huzhang
- Abstract要約: ライフタイム・バリュー(英: Life-time Value、略称: LTV)は、サービスまたは製品関係における顧客による長期的なコントリビューションの尺度である。
本稿では,顧客による長期的貢献の定量化が難しい問題を解消する汎用LTVモデリング手法を提案する。
また、可変分岐法とメモリレス繰り返し実験仮定に基づく高速動的プログラム法を提案する。
- 参考スコア(独自算出の注目度): 20.023630411438653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a measure of the long-term contribution produced by customers in a service
or product relationship, life-time value, or LTV, can more comprehensively find
the optimal strategy for service delivery. However, it is challenging to
accurately abstract the LTV scene, model it reasonably, and find the optimal
solution. The current theories either cannot precisely express LTV because of
the single modeling structure, or there is no efficient solution. We propose a
general LTV modeling method, which solves the problem that customers' long-term
contribution is difficult to quantify while existing methods, such as modeling
the click-through rate, only pursue the short-term contribution. At the same
time, we also propose a fast dynamic programming solution based on a mutated
bisection method and the memoryless repeated experiments assumption. The model
and method can be applied to different service scenarios, such as the
recommendation system. Experiments on real-world datasets confirm the
effectiveness of the proposed model and optimization method. In addition, this
whole LTV structure was deployed at a large E-commerce mobile phone
application, where it managed to select optimal push message sending time and
achieved a 10\% LTV improvement.
- Abstract(参考訳): サービスまたは製品関係における顧客による長期的な貢献の尺度として、ライフタイムバリュー(LTV)は、サービス提供の最適な戦略をより包括的に見つけることができる。
しかし,ltvシーンを正確に抽象化し,合理的にモデル化し,最適な解を求めることは困難である。
現在の理論は、単一のモデリング構造のために正確にLTVを表現できないか、効率的な解がないかのいずれかである。
本稿では,クリックスルー率のモデル化などの既存手法が短期的貢献のみを追求する一方で,顧客による長期貢献の定量化が難しいという問題を解決する汎用ltvモデリング手法を提案する。
同時に,可変二分法とメモリレス反復実験を前提とした高速動的計画法を提案する。
モデルとメソッドは、レコメンデーションシステムなど、さまざまなサービスシナリオに適用することができる。
実世界のデータセット実験により,提案手法の有効性が確認された。
さらに、この全LTV構造は、大規模なEコマース携帯電話アプリケーションにデプロイされ、最適なプッシュメッセージ送信時間を選択し、10%のLTV改善を実現した。
関連論文リスト
- Customer Lifetime Value Prediction with Uncertainty Estimation Using Monte Carlo Dropout [3.187236205541292]
本稿では,モンテカルロ・ドロップアウト(MCD)フレームワークを組み込むことにより,純粋ニューラルネットワークモデルのアーキテクチャを強化する新しいアプローチを提案する。
世界で最もダウンロード数の多いモバイルゲームのデータを用いて,提案手法のベンチマークを行った。
提案手法は,ニューラルネットワークモデル間での性能評価を行うための余分な次元として信頼性指標を提供する。
論文 参考訳(メタデータ) (2024-11-24T18:14:44Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Optimising Calls to Large Language Models with Uncertainty-Based Two-Tier Selection [80.63946798650653]
決定は、より優れた性能を持つ大型LCMを使うか、より少ないコストで使用するかに重点を置いている。
我々は,LLMの世代間不確実性のみを意思決定基準として,より単純な解を提案する。
実験の結果、この単純な解はコストと性能を最適にバランスさせ、27の試験装置中25の既存手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-05-03T14:38:59Z) - LMaaS: Exploring Pricing Strategy of Large Model as a Service for
Communication [11.337245234301857]
有料サービスモードは、LM(Large Model as a Service)と呼ばれるこの文脈に適していると我々は主張する。
本稿では,顧客の将来的なレンタル決定を推論することで,大規模モデルの価格を反復的に最適化する反復モデル価格(IMP)アルゴリズムを提案する。
第2ステップでは、ロバストな選択とレンタルのアルゴリズムを設計することで、顧客の選択決定を最適化する。
論文 参考訳(メタデータ) (2024-01-05T07:19:19Z) - CoLLiE: Collaborative Training of Large Language Models in an Efficient
Way [59.09824823710863]
CoLLiEは、大規模な言語モデルの協調トレーニングを容易にする効率的なライブラリである。
モジュール設計と包括的な機能により、CoLLiEは効率性、使いやすさ、カスタマイズのバランスのとれたブレンドを提供する。
論文 参考訳(メタデータ) (2023-12-01T08:02:16Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - Contrastive Multi-view Framework for Customer Lifetime Value Prediction [48.24479287526052]
既存のLTV予測手法の多くは、消費サンプルに基づいてシングルビューのLTV予測器を直接訓練する。
様々なバックボーンモデルと互換性のあるプラグ・アンド・プレイソリューションであるLTV予測のための対照的なマルチビューフレームワークを提案する。
実世界のLTV予測データセットについて広範な実験を行い,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-06-26T03:23:53Z) - Billion-user Customer Lifetime Value Prediction: An Industrial-scale
Solution from Kuaishou [19.31651596803956]
顧客ライフタイムバリュー(英:Customer Life Time Value、LTV)は、単一のユーザがビジネスにもたらすことができる総収入である。
LTVのモデリングは、複雑で変更可能なデータ分散のため、難しい問題である。
我々は、異なる時間帯のLTV間の順序依存をモデル化する秩序依存モノトニックネットワーク(ODMN)を導入する。
論文 参考訳(メタデータ) (2022-08-29T04:05:21Z) - Fast Approximate Solutions using Reinforcement Learning for Dynamic
Capacitated Vehicle Routing with Time Windows [3.5232085374661284]
本稿では, CVRP-TWDR (Capacitated Vehicle Routing with Time Windows and Dynamic Routing) の一般クラスに対する, 本質的に並列化, 高速, 近似学習に基づくソリューションを開発する。
艦隊内の車両を分散エージェントとして考えると、強化学習(RL)ベースの適応は動的環境におけるリアルタイムルート形成の鍵となると仮定する。
論文 参考訳(メタデータ) (2021-02-24T06:30:16Z) - Fast Rates for Contextual Linear Optimization [52.39202699484225]
提案手法は, 下流決定性能を直接最適化する手法よりもはるかに高速な, 後悔の収束率を実現する。
予測モデルは、既存のツールを使ったトレーニングが簡単かつ高速で、解釈が簡単で、私たちが示しているように、非常にうまく機能する決定につながる。
論文 参考訳(メタデータ) (2020-11-05T18:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。